Yapay zeka destekli popüler görüntü üretme yazılımlarının, çocuk istismarı fotoğraflarıyla eğitildiği öne sürüldü.
Standorf İnternet Gözlemevi'nin yürüttüğü araştırmada, yapay zeka veritabanı LAION'da çocuk istismarı görüntüsü olduğundan şüphelenilen 3 bin 200 görsel tespit edildi.
Veritabanındaki görsellerin, Stable Diffusion gibi önde gelen yapay zeka destek görüntü üretme uygulamalarını eğitmek için kullanıldığı belirtildi.
Kanada Çocuk Koruma Merkezi'yle birlikte araştırmayı yürüten Standford Üniversitesi merkezli ekip, tespit edilen binden fazla görselin çocuk istismarı görüntüsü olduğunu teyit edildiğini ve durumun güvenlik güçleriyle paylaşıldığını duyurdu.
DAHA FAZLA OKU
Araştırmacılar tarafından yapılan açıklamada, LAION‐5B veri tabanının son birkaç ayda dahi söz konusu yasadışı görsellerle doldurulduğuna dikkat çekildi.
Araştırmanın ardından bir açıklama yapan LAION, ellerindeki veri kümelerini geçici olarak sildiğini ve güvenli hale gelene kadar yeniden yayına almayacaklarını açıkladı.
Standorf İnternet Gözlemevi, söz konusu görsellerin yapay zekayla çocuk pornosu üretiminde kullanıldığını ve daha önce yayımlanan modellerin yerel bilgisayarlara indirilmelerinden ötürü geri alınamayacağını vurguladı.
Independent Türkçe