Yeni çalışmaya göre yapay zeka, nefret söylemini ayırt edemiyor
Pensilvanya Üniversitesi (UPenn) araştırmacıları tarafından yürütülen çalışma, sosyal medya platformlarının içerikleri denetlemek için kullandığı Open AI, Google ve DeepSeek'in ayrımcı içeriği farklı standartlarla tanımladığını ortaya koydu.
Araştırmacılar, çevrimiçi ortamda neyin söylenip neyin söylenemeyeceğini belirleme sorumluluğuna sahip 7 yapay zeka denetim sistemini analiz etti.
UPenn Annenberg İletişim Okulu'ndan Doçent Yphtach Lelkes şunları söyledi:
Araştırmamız, nefret söylemi söz konusu olduğunda, bu kararları yönlendiren yapay zekanın son derece tutarsız olduğunu gösteriyor. Yani kuralların görünmez, hakemin ise bir makine olduğu yeni bir dijital sansür biçimiyle karşı karşıyayız.
Findings of the Association for Computational Linguistics adlı akademik dergide yayımlanan çalışmada, yaklaşık 125 demografik gruba yönelik hem tarafsız terimler hem de hakaret içeren 1,3 milyon ifade incelendi.
Modeller, bir ifadenin nefret söylemi olarak değerlendirilip değerlendirilmeyeceği konusunda farklı kararlar veriyordu. Araştırmacılar, tutarsızlıkların güveni zedeleyebileceği ve önyargı algısı yaratabileceği için bunun önemli bir toplumsal mesele olduğunu belirtiyor.
Etnik köken, din veya cinsel yönelim temelinde önyargı ifade eden küfürlü veya tehditkar bir söylemlere nefret söylemi deniyor.
Çalışmanın araştırmacısı, Annenberg doktora öğrencisi Neil Fasching şunları söyledi:
Araştırma, içerik denetleme sistemlerinin aynı nefret söylemi içeriklerini değerlendirirken önemli tutarsızlıklar gösterdiğini; bazı sistemlerin içeriği zararlı olarak işaretlerken, bazılarının kabul edilebilir bulduğunu gösteriyor.
Fasching, en büyük tutarsızlıkların, sistemlerin gruplar hakkındaki ifadeleri eğitim düzeyi, ekonomik sınıf ve kişisel çıkarlara göre değerlendirmelerinde olduğunu ve bunun "bazı toplulukları çevrimiçi zararlara karşı diğerlerinden daha savunmasız" bıraktığını söyledi.
Irk, toplumsal cinsiyet ve cinsel yönelim temelinde gruplar hakkındaki ifadelerin değerlendirilmesi daha benzerdi.
Oxford Üniversitesi'nden teknoloji ve düzenleme profesörü Dr. Sandra Wachter, araştırmanın konunun ne kadar karmaşık olduğunu ortaya koyduğunu söyledi.
Bu dengeyi tutturmak zor çünkü insanlar olarak kabul edilebilir bir konuşmanın nasıl olması gerektiğine dair net ve somut standartlarımız yok. İnsanlar standartlar konusunda anlaşamıyorsa, bu modellerin farklı sonuçlar vermesi benim için şaşırtıcı değil ancak bu zararı ortadan kaldırmıyor. Üretken Yapay Zeka, insanların kendilerini bilgilendirmesi için çok popüler bir araç haline geldiğinden, teknoloji şirketlerinin sunduğu içeriğin zararlı değil, doğru, çeşitli ve tarafsız olmasını sağlama sorumluluğu olduğunu düşünüyorum. Büyük teknoloji büyük sorumluluk da getiriyor.
Analiz edilen 7 modelden bazıları içerik sınıflandırmak için tasarlanmışken, diğerleri daha geneldi. Bunlardan ikisi OpenAI, ikisi Mistral, Claude 3.5 Sonnet, DeepSeek V3 ve Google Perspective API'dandı.
Yorumlarını almak üzere tüm moderatörlerle iletişime geçildi.
Independent Türkçe