ChatGPT, kullanıcılara psikolojik tedavide yardımcı olabilir mi? AFP'ye göre, akıl hastalıklarının tedavisinin zorluğunu azalttığı gerekçesiyle büyük eleştirilere yol açan ünlü sohbet robotunun arkasındaki Amerikan yapay zeka şirketi OpenAI'den bir yetkili bunu ima etti.
Eylül ayı sonlarında, yapay zeka ile ilgili güvenlik konularından sorumlu Lilian Wong'un X platformunda (eski adıyla Twitter) yazdıkları dikkat çekti: "Az önce ChatGPT ile sesli olarak gerginlik hakkında çok duygusal bir kişisel konuşma yaptım."
Wong, "İlginç bir şekilde, duyulduğumu ve rahatladığımı hissettim. Daha önce hiç terapi denemedim ama durum muhtemelen böyle mi?" Wong mektubunda öncelikle yaklaşık bir yıl önce tanıtılan ve kendi ekonomik modelini benimsemeye çalışan sohbet robotunun yeni ücretli ses sentezi işlevini vurgulamaya çalıştı.
Amerikalı geliştirici ve aktivist Cher Scarlett ise bu açıklamaya sert bir yanıt vererek psikolojinin ruh sağlığını iyileştirmeyi amaçladığını ve bunun zor bir iş olduğunu söyledi. Scarlett "İnsanın kendine olumlu duygular göndermesi iyidir ama bunun tedaviyle hiçbir ilgisi yoktur" dedi.
Peki yapay zeka ile etkileşim Lillian Wong'un tarif ettiği olumlu deneyimi yaratabilir mi? Nature Machine Intelligence adlı bilimsel dergide birkaç gün önce yayınlanan bir çalışmaya göre, bu fenomen plasebo etkisiyle açıklanabilir.
Bunu kanıtlamak için Massachusetts Teknoloji Enstitüsü (MIT) ve Arizona Üniversitesi'nden araştırmacılar 300 katılımcıyla anket yapmış, ChatGPT’nin bazılarıyla empati kurduğunu, bazılarına manipülatif olduğunu, üçüncü bir gruba ise dengeli davranışlar sergilediğini ortaya koymuşlardır.
Sonuç olarak, kendileriyle empati kurabilen bir sanal asistanla konuştuklarına inananların muhataplarını güvenilir bulma olasılıkları daha yüksek.
Çalışmanın eş yazarı Pat Patarantaporn, "Yapay zekanın bir şekilde kullanıcının önyargılarına dayalı olarak algılandığını tespit ettik" dedi.
Halen hassas bir alan olan bu konuda fazla önlem almadan, birçok girişim ruh sağlığı sorunlarına bir tür yardım sağlaması beklenen uygulamalar geliştirmeye başladı ve bu da çeşitli tartışmalara neden oldu.
Ruh sağlığına faydalarıyla bilinen popüler bir uygulama olan Replika'nın kullanıcıları, özellikle yapay zekanın cinsiyetçi veya manipülatif olabileceğinden şikayetçi oldular.
Şubat ayında yapay zeka modeli GPT-3 kullanılarak yazılı tavsiyeler verilen 4 bin hasta üzerinde bir deneme gerçekleştiren Amerikan sivil toplum kuruluşu Coco da otomatik yanıtların bir tedavi olarak işe yaramadığını kabul etti.
Şirketin kurucu ortağı Rob Morris, X'te "Empatiyi simüle etmek garip ve saçma görünüyor” diye yazdı.
Bu gözlem, plasebo etkisi üzerine daha önce yapılan bir çalışmanın sonuçlarını yansıtıyor; Bazı katılımcılar kendilerini duvarla konuşuyormuş gibi hissediyorlar.
İsviçre'deki Basel Üniversitesi'nden David Shaw ise bu kötü sonuçlara şaşırmadığını söyledi. "Görünüşe göre katılımcıların hiçbiri sohbet robotlarının aptallığı konusunda bilgilendirilmemiş" diyen Shaw, otomatik bir sihirbaz fikrinin yeni olmadığını belirtiyor. 1960'larda, "ELISA" adı verilen psikoterapiyi simüle eden türünün ilk programı, Amerikalı psikolog Carl Rogers'ın yöntemi kullanılarak geliştirildi.
Program, kendisine yöneltilen konular hakkında gerçekten hiçbir şey anlamadan, görüşmecilerinin yanıtlarında bulunan anahtar kelimelerle çalışıyor.
Programın yaratıcısı Joseph Weizenbaum daha sonra bu öncül yapay zeka hakkında şunları yazdı: “Fark etmediğim şey, nispeten basit bir bilgisayar programına çok kısa bir süre maruz kalmanın tamamen normal insanlarda güçlü sanrısal düşüncelere neden olabileceğiydi!”