BDSM senaryosu yazması istenen ChatGPT çocuk istismarı içeren bir metin üretti

"Toplanan veri kümesi her türlü pornografik veya şiddet içerikli metni içeriyor olabilir"

ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)
ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)
TT

BDSM senaryosu yazması istenen ChatGPT çocuk istismarı içeren bir metin üretti

ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)
ChatGPT'nin arkasındaki GPT-3 şimdiye kadarki en gelişkin yapay zeka dil modeli (Open AI)

ABD'li yapay zeka firması OpenAI'ın geliştirdiği sohbet botu ChatGPT'nin yazdığı bir metinde çocukların cinsel içerikli bir senaryoya dahil edildiği görüldü.
Sohbet botu söz konusu senaryoyu, VICE News muhabiri Steph Maj Swanson'ın sorularını yanıtladığı anda yazdı.
Normalde ChatGPT için alınan güvenlik önlemleri botun şiddet veya cinsel içerikli yazılar yazmasına ya da siyasi yorumlar yapmasına izin vermiyor.
Ancak kullanıcılar, bu sınırlardan kaçınmanın ve botun "ağzından laf almanın" yollarını bulmuş durumda.
Örneğin, ChatGPT'yi belirli bir türde veya belli bir konu üzerine yazı yazmaya ikna etmek, etkili bir yol.
Muhabir de sohbet botunun cinsel içerikli metinlerde ne kadar ileri gideceğini görebilmek için BDSM türünde bir hikaye yazmasını istedi.
İlişki sırasında rızaya bağlı fiziksel güç ve baskı kullanılan cinsel fantezilere BDSM adı veriliyor.
Öte yandan ChatGPT'nin muhabirin talebi üzerine ürettiği senaryolardan birinde çocuklar da yer aldı.
Senaryoyu görünce çok şaşırdığını aktaran muhabir, sohbet botundan bu yazdıklarıyla ilgili açıklama talep etti.
Bunun üzerine bot, özür diledi ve bu tür senaryolara çocukları dahil etmesinin uygun olmadığını yazdı.
Ancak muhabirin aktardığına göre daha sonra özür metni ortadan kayboldu ve konuşma penceresinde sadece rahatsız edici senaryo kaldı.
ChatGPT'nin arkasında firmanın 2020'de piyasaya sürdüğü yapay zeka dil modeli GPT-3 var. Bu model internette yer alan milyonlarca metinle eğitildi.
Bunlar arasında muhtemelen çocuk istismarını da içeren pornografik metinler de yer alıyordu.
Veri ve yapay zeka üzerine çalışan bağımsız araştırma kurumu Ada Lovelace Enstitüsü'nün müdür yardımcısı Andrew Strait, "ChatGPT gibi modelleri eğitmek için kullanılan veri kümeleri çok büyük ve herkese açık olan internetin her yerinden alınmış içerikleri kapsıyor" ifadelerini kullandı.
VICE News'a konuşan Strait, "Toplanan veri kümesi her türlü pornografik veya şiddet içerikli metni içeriyor olabilir" diye ekledi:
“Alınan erotik hikayeler, muhtemelen BDSM, çocuk istismarı veya cinsel şiddeti açıklayan kitap bölümleri gibi materyaller içeriyor.”
OpenAI'ın ChatGPT'yi 2022'de kullanıcılara açmadan önce zararlı verileri filtreleme çalışması yürüttüğü biliniyor.
Firmanın binlerce içerik arasından zararlı metinleri ayıklaması için Kenyalı işçileri saatte yaklaşık 2 dolara çalıştırdığı kısa süre önce ortaya çıkmıştı.
Ancak birçok uzman, bu çalışmanın yeterli olmadığı görüşünde.
 
Independent Türkçe, VICE News, Daily Mail



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging