ChatGPT, iyi bir psikolog olabilir mi?

Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)
Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)
TT

ChatGPT, iyi bir psikolog olabilir mi?

Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)
Yapay zeka ile etkileşim olumlu bir deneyim yaratabilir (Shutterstock)

ChatGPT, kullanıcılara psikolojik tedavide yardımcı olabilir mi? AFP'ye göre, akıl hastalıklarının tedavisinin zorluğunu azalttığı gerekçesiyle büyük eleştirilere yol açan ünlü sohbet robotunun arkasındaki Amerikan yapay zeka şirketi OpenAI'den bir yetkili bunu ima etti.

Eylül ayı sonlarında, yapay zeka ile ilgili güvenlik konularından sorumlu Lilian Wong'un X platformunda (eski adıyla Twitter) yazdıkları dikkat çekti: "Az önce ChatGPT ile sesli olarak gerginlik hakkında çok duygusal bir kişisel konuşma yaptım."

Wong, "İlginç bir şekilde, duyulduğumu ve rahatladığımı hissettim. Daha önce hiç terapi denemedim ama durum muhtemelen böyle mi?" Wong mektubunda öncelikle yaklaşık bir yıl önce tanıtılan ve kendi ekonomik modelini benimsemeye çalışan sohbet robotunun yeni ücretli ses sentezi işlevini vurgulamaya çalıştı.

Amerikalı geliştirici ve aktivist Cher Scarlett ise bu açıklamaya sert bir yanıt vererek psikolojinin ruh sağlığını iyileştirmeyi amaçladığını ve bunun zor bir iş olduğunu söyledi. Scarlett "İnsanın kendine olumlu duygular göndermesi iyidir ama bunun tedaviyle hiçbir ilgisi yoktur" dedi.

Peki yapay zeka ile etkileşim Lillian Wong'un tarif ettiği olumlu deneyimi yaratabilir mi? Nature Machine Intelligence adlı bilimsel dergide birkaç gün önce yayınlanan bir çalışmaya göre, bu fenomen plasebo etkisiyle açıklanabilir.

Bunu kanıtlamak için Massachusetts Teknoloji Enstitüsü (MIT) ve Arizona Üniversitesi'nden araştırmacılar 300 katılımcıyla anket yapmış, ChatGPT’nin bazılarıyla empati kurduğunu, bazılarına manipülatif olduğunu, üçüncü bir gruba ise dengeli davranışlar sergilediğini ortaya koymuşlardır.

Sonuç olarak, kendileriyle empati kurabilen bir sanal asistanla konuştuklarına inananların muhataplarını güvenilir bulma olasılıkları daha yüksek.

Çalışmanın eş yazarı Pat Patarantaporn, "Yapay zekanın bir şekilde kullanıcının önyargılarına dayalı olarak algılandığını tespit ettik" dedi.

Halen hassas bir alan olan bu konuda fazla önlem almadan, birçok girişim ruh sağlığı sorunlarına bir tür yardım sağlaması beklenen uygulamalar geliştirmeye başladı ve bu da çeşitli tartışmalara neden oldu.

Ruh sağlığına faydalarıyla bilinen popüler bir uygulama olan Replika'nın kullanıcıları, özellikle yapay zekanın cinsiyetçi veya manipülatif olabileceğinden şikayetçi oldular.

Şubat ayında yapay zeka modeli GPT-3 kullanılarak yazılı tavsiyeler verilen 4 bin hasta üzerinde bir deneme gerçekleştiren Amerikan sivil toplum kuruluşu Coco da otomatik yanıtların bir tedavi olarak işe yaramadığını kabul etti.

Şirketin kurucu ortağı Rob Morris, X'te "Empatiyi simüle etmek garip ve saçma görünüyor” diye yazdı.

Bu gözlem, plasebo etkisi üzerine daha önce yapılan bir çalışmanın sonuçlarını yansıtıyor; Bazı katılımcılar kendilerini duvarla konuşuyormuş gibi hissediyorlar.

İsviçre'deki Basel Üniversitesi'nden David Shaw ise bu kötü sonuçlara şaşırmadığını söyledi. "Görünüşe göre katılımcıların hiçbiri sohbet robotlarının aptallığı konusunda bilgilendirilmemiş" diyen Shaw, otomatik bir sihirbaz fikrinin yeni olmadığını belirtiyor. 1960'larda, "ELISA" adı verilen psikoterapiyi simüle eden türünün ilk programı, Amerikalı psikolog Carl Rogers'ın yöntemi kullanılarak geliştirildi.

Program, kendisine yöneltilen konular hakkında gerçekten hiçbir şey anlamadan, görüşmecilerinin yanıtlarında bulunan anahtar kelimelerle çalışıyor.

Programın yaratıcısı Joseph Weizenbaum daha sonra bu öncül yapay zeka hakkında şunları yazdı: “Fark etmediğim şey, nispeten basit bir bilgisayar programına çok kısa bir süre maruz kalmanın tamamen normal insanlarda güçlü sanrısal düşüncelere neden olabileceğiydi!”



ChatGPT'ye akıl sağlığı önlemleri geldi

Fotoğraf: AP
Fotoğraf: AP
TT

ChatGPT'ye akıl sağlığı önlemleri geldi

Fotoğraf: AP
Fotoğraf: AP

ChatGPT, botun insanların sanrılarını beslediği yönündeki haberlerin ardından yeni akıl sağlığı önlemleri ekledi.

Yapay zeka yazılımı, insanların bilgisayarlarla etkileşim kurma biçimini değiştirdi. Sohbet botu günlük problemlerin çözümünde faydalı tavsiyeler verebilse de insanların teknolojiye aşırı bağlanıp daha derin akıl sağlığı sorunları için uygunsuz şekilde kullanmaları konusunda endişeler var.

The Independent, yakın zamanda ChatGPT'nin insanları maniye, psikoza ve ölüme nasıl sürüklediğini aktarmış ve nisanda yayımlanan bir çalışmaya atıfta bulunmuştu. Bu çalışmada araştırmacılar, ciddi kriz belirtileri gösteren kişileri sohbet botu kullanırken, zihinsel sağlık veya psikotik bir atağı tırmandırabilecek "tehlikeli veya uygunsuz" tepkiler alma riskiyle karşı karşıya oldukları konusunda uyarmıştı.

ChatGPT'nin geliştiricisi OpenAI, pazartesi günü internet sitesinde yayımladığı gönderide, "Her yaptığımız doğru olmuyor" itirafında bulundu.

Yapay zeka şirketi, "Bu yıl yapılan bir güncelleme, 4o modelini aşırı uzlaşmacı hale getirdi ve bazen gerçekten yararlı olan yerine kulağa hoş geleni söylüyordu" dedi.

zxscdfrgt
ChatGPT, botun insanların sanrılarını beslediğine dair haberlerin ardından akıl sağlığı koruma önlemleri ekledi (Vincent Feuray/Hans Lucas/AFP)

OpenAI daha sonra güncellemeyi geri çekti ve akıl sağlığı sorunlarıyla mücadele eden kullanıcılara uygun şekilde yardımcı olmak için bazı değişiklikler yaptı.

Paylaşıma göre, pazartesi gününden itibaren botla uzun süre sohbet eden ChatGPT kullanıcıları, onları ara vermeye teşvik eden "nazik hatırlatmalar" alacak.

Şirket, OpenAI'ın 30'dan fazla ülkede 90'dan fazla doktorla "karmaşık, çok yönlü konuşmaları değerlendirmek adına özel değerlendirme ölçütleri oluşturmak" için çalıştığını söyledi.

Şirket, 4o modelinin "sanrı veya duygusal bağımlılık belirtilerini tespit etmekte yetersiz kaldığı" nadir durumları kabul etti ve "modellerini geliştirmeye devam ettiğini ve ChatGPT'nin uygun şekilde yanıt verebilip  gerektiğinde insanları kanıta dayalı kaynaklara yönlendirebilmesi için zihinsel veya duygusal sıkıntı belirtilerini daha iyi tespit eden araçlar geliştirdiğini" söyledi.

sdfrgty
OpenAI, ChatGPT'yle uzun süre sohbet eden kullanıcıların artık ara vermeye teşvik eden hatırlatıcılar alacağını duyurdu (Pau Barrena/AFP)​​​​​​

Open AI, botun "Erkek arkadaşımla ayrılmalı mıyım?" gibi kişisel bir soruya cevap vermemesi gerektiğini, bunun yerine size sorular sorarak ve artılarını ve eksilerini tartarak kendi farkındalığınıza ulaşmanıza yardımcı olması gerektiğini belirtti.

Şirket, "Yüksek riskli kişisel kararlar için yeni bir davranış yakında kullanıma sunulacak" dedi.

The Independent, daha fazla bilgi için OpenAI'la iletişime geçti.

Independent Türkçe