ChatGPT, iyi bir psikolog olabilir mi?

Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)
Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)
TT

ChatGPT, iyi bir psikolog olabilir mi?

Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)
Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)

ChatGPT, kullanıcılara psikolojik tedavide yardımcı olabilir mi? AFP'ye göre, akıl hastalıklarının tedavisinin zorluğunu azalttığı gerekçesiyle büyük eleştirilere yol açan ünlü sohbet robotunun arkasındaki Amerikan yapay zeka şirketi OpenAI'den bir yetkili bunu ima etti.

Eylül ayı sonlarında, yapay zeka ile ilgili güvenlik konularından sorumlu Lilian Wong'un X platformunda (eski adıyla Twitter) yazdıkları dikkat çekti: "Az önce ChatGPT ile sesli olarak gerginlik hakkında çok duygusal bir kişisel konuşma yaptım."

Wong, "İlginç bir şekilde, duyulduğumu ve rahatladığımı hissettim. Daha önce hiç terapi denemedim ama durum muhtemelen böyle mi?" Wong mektubunda öncelikle yaklaşık bir yıl önce tanıtılan ve kendi ekonomik modelini benimsemeye çalışan sohbet robotunun yeni ücretli ses sentezi işlevini vurgulamaya çalıştı.

Amerikalı geliştirici ve aktivist Cher Scarlett ise bu açıklamaya sert bir yanıt vererek psikolojinin ruh sağlığını iyileştirmeyi amaçladığını ve bunun zor bir iş olduğunu söyledi. Scarlett "İnsanın kendine olumlu duygular göndermesi iyidir ama bunun tedaviyle hiçbir ilgisi yoktur" dedi.

Peki yapay zeka ile etkileşim Lillian Wong'un tarif ettiği olumlu deneyimi yaratabilir mi? Nature Machine Intelligence adlı bilimsel dergide birkaç gün önce yayınlanan bir çalışmaya göre, bu fenomen plasebo etkisiyle açıklanabilir.

Bunu kanıtlamak için Massachusetts Teknoloji Enstitüsü (MIT) ve Arizona Üniversitesi'nden araştırmacılar 300 katılımcıyla anket yapmış, ChatGPT’nin bazılarıyla empati kurduğunu, bazılarına manipülatif olduğunu, üçüncü bir gruba ise dengeli davranışlar sergilediğini ortaya koymuşlardır.

Sonuç olarak, kendileriyle empati kurabilen bir sanal asistanla konuştuklarına inananların muhataplarını güvenilir bulma olasılıkları daha yüksek.

Çalışmanın eş yazarı Pat Patarantaporn, "Yapay zekanın bir şekilde kullanıcının önyargılarına dayalı olarak algılandığını tespit ettik" dedi.

Halen hassas bir alan olan bu konuda fazla önlem almadan, birçok girişim ruh sağlığı sorunlarına bir tür yardım sağlaması beklenen uygulamalar geliştirmeye başladı ve bu da çeşitli tartışmalara neden oldu.

Ruh sağlığına faydalarıyla bilinen popüler bir uygulama olan Replika'nın kullanıcıları, özellikle yapay zekanın cinsiyetçi veya manipülatif olabileceğinden şikayetçi oldular.

Şubat ayında yapay zeka modeli GPT-3 kullanılarak yazılı tavsiyeler verilen 4 bin hasta üzerinde bir deneme gerçekleştiren Amerikan sivil toplum kuruluşu Coco da otomatik yanıtların bir tedavi olarak işe yaramadığını kabul etti.

Şirketin kurucu ortağı Rob Morris, X'te "Empatiyi simüle etmek garip ve saçma görünüyor” diye yazdı.

Bu gözlem, plasebo etkisi üzerine daha önce yapılan bir çalışmanın sonuçlarını yansıtıyor; Bazı katılımcılar kendilerini duvarla konuşuyormuş gibi hissediyorlar.

İsviçre'deki Basel Üniversitesi'nden David Shaw ise bu kötü sonuçlara şaşırmadığını söyledi. "Görünüşe göre katılımcıların hiçbiri sohbet robotlarının aptallığı konusunda bilgilendirilmemiş" diyen Shaw, otomatik bir sihirbaz fikrinin yeni olmadığını belirtiyor. 1960'larda, "ELISA" adı verilen psikoterapiyi simüle eden türünün ilk programı, Amerikalı psikolog Carl Rogers'ın yöntemi kullanılarak geliştirildi.

Program, kendisine yöneltilen konular hakkında gerçekten hiçbir şey anlamadan, görüşmecilerinin yanıtlarında bulunan anahtar kelimelerle çalışıyor.

Programın yaratıcısı Joseph Weizenbaum daha sonra bu öncül yapay zeka hakkında şunları yazdı: “Fark etmediğim şey, nispeten basit bir bilgisayar programına çok kısa bir süre maruz kalmanın tamamen normal insanlarda güçlü sanrısal düşüncelere neden olabileceğiydi!”



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging