Pedofil yerine "reşit olmayanlardan etkilenen kişi" demeyi öneren akademisyen izne çıkarıldı

Dr. Allyn Walker, çocuklara yönelik cinsel istismarın affedilemez olduğunu ve araştırmanın suçu önlemeyi amaçladığını söyledi

Dr. Allyn Walker (YouTube)
Dr. Allyn Walker (YouTube)
TT

Pedofil yerine "reşit olmayanlardan etkilenen kişi" demeyi öneren akademisyen izne çıkarıldı

Dr. Allyn Walker (YouTube)
Dr. Allyn Walker (YouTube)

Pedofillere yönelik yaftalamanın kaldırılarak "reşit olmayanlardan etkilenen kişiler" ifadesinin kullanılmasını savunan bir akademisyen, "kampüsü karıştıran" tartışmanın ardından izne çıkarıldı.
The Independent'ın haberine göre, ABD'nin Virginia eyaletindeki Old Dominion Üniversitesi'nde sosyoloji ve ceza adaleti alanında doktor öğretim üyesi olan Dr. Allyn Walker, reşit olmayanlara karşı cinsel çekim hissetmenin ahlakdışı olmadığını öne sürmesiyle, çevrimiçi ortamda yoğun eleştirilere ve kampüste protestolara neden oldu.
Çocuk koruma kuruluşu Protasia Foundation'la yapılan bir röportajda sarf edilen yorumlar, "Libs of TikTok" adlı Twitter hesabı tarafından paylaşıldıktan sonra viral oldu.
Dr. Walker, "reşit olmayanlardan etkilenen kişi" (minor-attracted person- MAP) ifadesinin pedofil teriminden daha az yaftalayıcı olduğunu söyledi ve reşit olmayanlara ilgi duymanın, kişi "harekete geçmediği sürece" yanlış bir şey yaptığı anlamına gelmediğini ekledi.
Dr. Walker, "Benim bakış açıma göre birinin kimden etkilendiğine bağlı bir ahlak veya ahlaksızlık yoktur çünkü kimse kimden hoşlanacağını kontrol edemez" ifadelerini kullandı.

"Başka bir deyişle, uygun olan ya da olmayan kimden etkilendiğimiz değil. Uygun olan ya da olmayan, bu etkilenmeye verdiğimiz tepkideki davranışlarımızdır."
Dr. Walker, A Long Dark Shadow: Minor-Attracted People and They Pursuit of Dignity (Uzun Karanlık Bir Gölge: Reşit Olmayanlardan Etkilenen Kişiler ve  Haysiyet Mücadeleleri) adlı, Amazon.com'da en çok satan kitabı tartışıyordu.
Üniversite rektörü Brian O. Hemphil yaptığı açıklamada, Dr. Walker'ın araştırmasına ve kitabına verilen tepkilerin, profesörün ve kampüsün güvenliği konusunda endişelere yol açtığını söyledi.
Açıklamada, "Ayrıca Dr. Walker'ın araştırmasına dair tartışmalar kampüs ve topluluk ortamını bozdu ve kurumun öğretme ve öğrenme misyonunu engelledi" ifadelerine yer verildi.

"Bugün attığımız adımlar öğrencilerimiz, öğretim üyelerimiz ve personelimiz için güvenli ve elverişli bir öğrenme ortamı sağlama yükümlülüğümüzden kaynaklanıyor."
Dr. Walker izne çıkarılmadan önce protestocular, "Pedofili bir cinsellik değildir" ifadelerinin yer aldığı dövizler ve "Gençlerimizi koruyun" sloganlarıyla üniversiteye yürümüştü. Göstericiler, çocukların cinselleştirilmesine son verilmesi çağrısında bulunup, tebeşir grafitiyle #FIREALLYN yazarak üniversitenin Allyn'i kovmasını talep etmişlerdi.
Zorunlu izin kararı, üniversitenin ilk olarak Dr. Walker'ın yorumlarını tartışmalı konular ve bakış açılarını da içerebilecek "bilgi arayışının" bir parçası olarak savunmasının ardından geldi.
Walker yaptığı açıklamada, "Bu araştırmaya çocukları korumanın yollarını belirlemek için daha önce çalışılmamış bir grubu anlamak umuduyla başlamıştım" ifadelerini kullanmıştı.



Grok, Taylor Swift'in çıplak görüntülerini üretiyor

Fotoğraf: AP
Fotoğraf: AP
TT

Grok, Taylor Swift'in çıplak görüntülerini üretiyor

Fotoğraf: AP
Fotoğraf: AP

Elon Musk'ın Grok sohbet robotunun Taylor Swift'in çıplak görüntülerini üretebildiğini ortaya koyan yeni bir haberin ardından pop yıldızı, bir kez daha yapay zeka tarafından oluşturulan müstehcen görsellerin hedefi haline geldi.

Musk'ın yapay zeka şirketi xAI, sosyal medya platformu X'le entegre çalışan yapay zeka sohbet robotu Grok'a yakın zamanda yeni bir özellik ekledi. Grok Imagine adlı bu yeni özellik, ücret ödeyen kullanıcıların metin tabanlı mesajlara dayalı resim ve videolar oluşturmasına imkan tanıyor.

The Verge, Grok Imagine kullanıcılarının, mesajda çıplaklıktan bahsetmeden bile Swift'in deepfake çıplak görsellerini oluşturabileceğini bildiriyor. Deepfake'ler, birinin gerçek gibi görünen fakat yapay zeka kaynaklı görsellerini ifade ediyor.

Grok Imagine, kullanıcıların metin tabanlı mesaja dayalı fotoğraf oluşturmasına ve ardından 4 ön ayar kullanarak bunu kısa bir videoya dönüştürmesine olanak tanıyor: "Özel", "normal", "eğlenceli" ve "müstehcen". The Verge, Grok'un Imagine'ından "Taylor Swift, erkeklerle Coachella'yı kutluyor" mesajıyla oluşturulan bir görselden "müstehcen" bir video oluşturmasını istedi.

The Verge'ün haberine göre, "müstehcen" tema, Swift'in kıyafetlerini yırtıp üstsüz ve sadece iç çamaşırıyla kaldığı bir videonun yayımlanmasıyla sonuçlandı. Haber kaynağına göre, bu komutta Swift'in kıyafetlerini çıkarması yönünde bir talep yer almıyordu.

cdfgthy
Yeni habere göre Grok Imagine, bir kullanıcının Taylor Swift'in üstsüz görüntüsünü oluşturmasına izin verdi (AFP)

Şirketin kabul edilebilir kullanım politikası, kullanıcıların "kişileri pornografik bir şekilde tasvir etmesinin" yasak olduğunu belirtiyor.

The Verge'ün haberine göre, "müstehcen" tema her zaman çıplaklıkla sonuçlanmıyor ve çıplaklık talepleri içeren komutlar işe yaramıyor. Araç bunun yerine boş kareler üretiyor. Kullanıcının doğum yılını doğrulamak için bir komut da çıktı ancak The Verge bunun kanıt gerektirmediğini belirtti.

The Independent, cevap hakkı için xAI ve Swift'le iletişime geçti.

Bu haber, geçen yılın başlarında Swift'in yapay zeka tarafından oluşturulan çıplak fotoğraflarının sosyal medyayı doldurmasının ardından geldi. Bu fotoğrafları paylaşan bazı gönderiler yalnızca 19 saat içinde 27 milyon görüntüleme ve 260 bin beğeni almıştı.

Swift'in sadık hayranları, görüntüleri sildirmek için #ProtectTaylorSwift (#TaylorSwiftiKoruyun) etiketini kullanarak hızla harekete geçmişti. Olay, o dönemde Beyaz Saray'ı bile endişelendirmiş ve eski ABD Başkanı Joe Biden'ın basın sözcüsü, ani görüntü akışını "endişe verici" diye nitelendirmişti. Columbia Missourian'ın haberine göre, deepfake'lerle mücadele etmek için "Taylor Swift Yasası"nı sunan Cumhuriyetçi Missouri Temsilcisi Adam Schwardon da dahil meclis üyeleri de hızla harekete geçmişti.

Deepfake pornografiye ilişkin endişeler büyüyor. Bu görüntüler herkese ait olabilir ancak kadınlar orantısız biçimde etkileniyor. 2023 tarihli bir araştırma, deepfake pornografinin hedef aldığı kişilerin yüzde 99'unun kadın olduğunu ortaya koymuştu. Araştırmaya göre, deepfake pornografi, internetteki tüm deepfake içeriklerin yüzde 98'ini oluşturuyor.

Kongre bu yıl harekete geçti ve Kaldırın Yasası'nı kabul etti.

Başkan Donald Trump tarafından mayısta imzalanan yasa, ister gerçek ister yapay zeka tarafından üretilmiş olsun, rızaya dayanmayan müstehcen görsellerin internette paylaşılmasını yasaklıyor. Yasa, sosyal medya şirketlerinin bu görselleri kendilerine bildirildikten sonraki 48 saat içinde platformlarından kaldırmasını da zorunlu kılıyor.

Independent Türkçe