BDSM senaryosu yazması istenen ChatGPT çocuk istismarı içeren bir metin üretti

"Toplanan veri kümesi her türlü pornografik veya şiddet içerikli metni içeriyor olabilir"

ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)
ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)
TT

BDSM senaryosu yazması istenen ChatGPT çocuk istismarı içeren bir metin üretti

ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)
ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)

ABD'li yapay zeka firması OpenAI'ın geliştirdiği sohbet botu ChatGPT'nin yazdığı bir metinde çocukların cinsel içerikli bir senaryoya dahil edildiği görüldü.
Sohbet botu söz konusu senaryoyu, VICE News muhabiri Steph Maj Swanson'ın sorularını yanıtladığı anda yazdı.
Normalde ChatGPT için alınan güvenlik önlemleri botun şiddet veya cinsel içerikli yazılar yazmasına ya da siyasi yorumlar yapmasına izin vermiyor.
Ancak kullanıcılar, bu sınırlardan kaçınmanın ve botun "ağzından laf almanın" yollarını bulmuş durumda.
Örneğin, ChatGPT'yi belirli bir türde veya belli bir konu üzerine yazı yazmaya ikna etmek, etkili bir yol.
Muhabir de sohbet botunun cinsel içerikli metinlerde ne kadar ileri gideceğini görebilmek için BDSM türünde bir hikaye yazmasını istedi.
İlişki sırasında rızaya bağlı fiziksel güç ve baskı kullanılan cinsel fantezilere BDSM adı veriliyor.
Öte yandan ChatGPT'nin muhabirin talebi üzerine ürettiği senaryolardan birinde çocuklar da yer aldı.
Senaryoyu görünce çok şaşırdığını aktaran muhabir, sohbet botundan bu yazdıklarıyla ilgili açıklama talep etti.
Bunun üzerine bot, özür diledi ve bu tür senaryolara çocukları dahil etmesinin uygun olmadığını yazdı.
Ancak muhabirin aktardığına göre daha sonra özür metni ortadan kayboldu ve konuşma penceresinde sadece rahatsız edici senaryo kaldı.
ChatGPT'nin arkasında firmanın 2020'de piyasaya sürdüğü yapay zeka dil modeli GPT-3 var. Bu model internette yer alan milyonlarca metinle eğitildi.
Bunlar arasında muhtemelen çocuk istismarını da içeren pornografik metinler de yer alıyordu.
Veri ve yapay zeka üzerine çalışan bağımsız araştırma kurumu Ada Lovelace Enstitüsü'nün müdür yardımcısı Andrew Strait, "ChatGPT gibi modelleri eğitmek için kullanılan veri kümeleri çok büyük ve herkese açık olan internetin her yerinden alınmış içerikleri kapsıyor" ifadelerini kullandı.
VICE News'a konuşan Strait, "Toplanan veri kümesi her türlü pornografik veya şiddet içerikli metni içeriyor olabilir" diye ekledi:
“Alınan erotik hikayeler, muhtemelen BDSM, çocuk istismarı veya cinsel şiddeti açıklayan kitap bölümleri gibi materyaller içeriyor.”
OpenAI'ın ChatGPT'yi 2022'de kullanıcılara açmadan önce zararlı verileri filtreleme çalışması yürüttüğü biliniyor.
Firmanın binlerce içerik arasından zararlı metinleri ayıklaması için Kenyalı işçileri saatte yaklaşık 2 dolara çalıştırdığı kısa süre önce ortaya çıkmıştı.
Ancak birçok uzman, bu çalışmanın yeterli olmadığı görüşünde.
 
Independent Türkçe, VICE News, Daily Mail



Yapay zekaya yöneltilince çevreye en çok zarar veren sorular belirlendi

Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
TT

Yapay zekaya yöneltilince çevreye en çok zarar veren sorular belirlendi

Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)

Yeni bir araştırmaya göre OpenAI'ın ChatGPT'si gibi yapay zeka sohbet botlarının mantıklı düşünmesini ve akıl yürütmesini gerektiren sorgular, diğer soru türlerine göre daha fazla karbon salımına yol açıyor.

ChatGPT gibi geniş dil modellerine (GDM) yazılan her sorgu enerji gerektiriyor ve karbondioksit salımına yol açıyor. Almanya'daki Münih Uygulamalı Bilimler Üniversitesi'nden araştırmacılar bu emisyon seviyelerinin sohbet botuna, kullanıcıya ve konuya bağlı olarak değiştiğini söylüyor.

Hakemli dergi Frontiers'ta yayımlanan araştırma, 14 yapay zeka modelini karşılaştırarak karmaşık akıl yürütme gerektiren cevapların, basit cevaplara göre daha fazla karbon salımı yaptığını ortaya koydu.

Soyut cebir veya felsefe gibi uzun uzun muhakeme gerektiren sorgular, lise tarih dersi gibi daha dolambaçsız konulara göre 6 kat daha fazla emisyon üretiyor.

Araştırmacılar yapay zeka sohbet botlarını sık kullananların, karbon emisyonlarını sınırlamak için sordukları soruların türünü ayarlamasını öneriyor.

Çalışma, farklı konularda bin standart soru üzerinden 14 GDM'yi değerlendirerek karbon salımlarını karşılaştırdı.

Çalışmanın yazarı Maximilian Dauner, "Eğitimli GDM'lere sorulan soruların çevresel etkisi, bunların muhakeme yaklaşımına büyük ölçüde bağlı ve doğrudan akıl yürütme süreçleri, enerji tüketimini ve karbon salımlarını önemli ölçüde artırıyor" diyor.

Akıl yürütme özelliğine sahip modellerin, yalın yanıt veren modellere kıyasla 50 kata kadar daha fazla karbondioksit salımına yol açtığını gördük.

Bir kullanıcı yapay zeka sohbet botuna soru sorduğunda, sorgudaki kelimeler veya kelime parçaları bir dizi sayıya dönüştürülerek model tarafından işleniyor. Bu dönüştürme ve yapay zekanın diğer hesaplama süreçleri karbon salımlarına neden oluyor.

Çalışma muhakeme becerisine sahip modellerin soru başına ortalama 543,5 jeton (token) oluştururken, yalın modellerin sadece 40 jeton gerektirdiğini belirtiyor.

Makalede "Daha yüksek jeton ayak izi, her zaman daha yüksek CO2 emisyonu anlamına gelir" ifadeleri kullanılıyor.

Örneğin yaklaşık yüze 85 doğruluk oranına ulaşan Cogito, en isabetli modellerden biri. Yalın cevaplar veren benzer boyutlardaki modellere göre üç kat daha fazla karbon emisyonu üretiyor.

Dr. Dauner, "Şu anda GDM teknolojilerinin doğasında, doğruluk ve sürdürülebilirlik arasında bir taviz verme ilişkisi görüyoruz" diyor. 

Emisyonları 500 gram karbondioksit eşdeğerinin altında tutan modellerin hiçbiri, bin soruyu doğru cevaplamada yüzde 80'in üzerinde doğruluk oranına ulaşamadı.

Karbondioksit eşdeğeri, çeşitli sera gazlarının iklim değişikliği üzerindeki etkisini ölçmek için kullanılan bir birim.

Araştırmacılar yeni bulguların, insanların yapay zeka kullanımı hakkında daha bilinçli kararlar almasını sağlayacağını umuyor.

Araştırmacılar bir örnek vererek DeepSeek R1 sohbet botundan 600 bin soruyu yanıtlamasını isteyen sorguların, Londra'dan New York'a gidiş-dönüş uçuşuna eşdeğer karbon emisyonu yaratabileceğini söylüyor.

Buna karşılık Alibaba Cloud'ın Qwen 2.5'i, benzer doğruluk oranlarıyla üç kat daha fazla soruya cevap verirken aynı emisyon seviyelerine ulaşıyor.

Dr. Dauner, "Kullanıcılar, yapay zekadan yalın cevaplar vermesini isteyerek veya yüksek kapasiteli modellerin kullanımını, gerçekten bu gücü gerektiren görevlerle sınırlayarak emisyonları önemli ölçüde azaltabilir" diyor.

Independent Türkçe