Vishwam Sankaran Bilim ve Teknoloji Muhabiri
Yeni bir araştırma ChatGPT gibi yapay zeka modellerinin "halüsinasyon görmesi", yani gerçekleri uydurmasının asıl nedeninin, bilgi eksikliğini kabul etmek yerine tahmin yürütmek üzere eğitilmelerinden kaynaklandığını saptadı.
Halüsinasyon, üretken yapay zeka modellerinde önemli bir endişe kaynağı çünkü konuşma becerileri sayesinde yanlış bilgileri kendilerinden çok emin bir şekilde sunabiliyorlar.
Yapay zeka teknolojisindeki hızlı gelişmelere rağmen, halüsinasyon en yeni modellerde bile sorun yaratmaya devam ediyor.
Özellikle bu teknolojinin tıp ve hukuk alanlarında giderek daha fazla kullanılması nedeniyle sektördeki uzmanlar, yapay zeka halüsinasyonuyla mücadele etmek için daha derin araştırma ve eylemlere ihtiyaç duyulduğunu söylüyor.
ChatGPT'nin yaratıcısı OpenAI'dan araştırmacılar yeni bir çalışmada, yapay zeka halüsinasyonuna hatalı eğitim verileri ve model karmaşıklığı gibi çeşitli faktörler katkıda bulunsa da asıl nedenin, algoritmaların "yanlış teşviklerle" çalışması olduğunu belirtiyor.
Araştırmacılar, "Çoğu değerlendirme model performansını, belirsizlik karşısında dürüst davranmaktan ziyade tahmin yürütmeyi teşvik eden bir şekilde ölçüyor" diye açıklıyor.
Bu, bir öğrencinin çoktan seçmeli bir testte boş bırakmak puan getirmediği için kafadan atmasına benziyor.
Araştırmacılar şu ifadeleri kullanıyor:
Aynı şekilde modeller yalnızca doğruluk, yani tam olarak doğru cevapladıkları soru yüzdesi üzerinden puanlandığında, 'Bilmiyorum' demek yerine tahminde bulunmaya teşvik ediliyorlar.
Yapay zeka modelleri, büyük metin bloklarında bir sonraki kelimeyi tahmin etme süreciyle öğreniyor.
Bazen tutarlı kalıplar olsa da çoğu durumda eğitim verileri rasgele olabiliyor.
Halüsinasyon, yapay zeka modellerine özellikle bilgi eksikliği veya belirsizlik gibi nedenlerle cevabı kesin olmayan sorular sorulduğunda yaygın görülüyor.
Yapay zeka modelleri, belirsizliklerle dolu bu tür sorularda stratejik tahminler yürütüyor. Bu, zamanla daha fazla veri elde ettikçe doğruluklarını artırabilir ancak aynı zamanda hata ve halüsinasyon oranlarını da artırır.
Araştırmacılar, "Daha çok gelişseler de modellerin belirsizliği kabul etmektense kendilerinden emin bir şekilde yanlış cevaplar vererek halüsinasyon görmeyi sürdürmelerinin bir nedeni de bu" diyor.
Ancak bu sorunun basit bir çözümü olabilir. Araştırmacılar, yapay zeka modellerinin belirsizlikten ziyade "kendinden emin hatalarını" cezalandırmanın ve belirsizlik uygun bir şekilde ifade edildiğinde biraz puan vermenin bir dereceye kadar yardımcı olabileceğini söylüyor.
Bu, bilmeden yapılan tahminleri caydırmak için yanlış cevaplara eksi puan, boş bırakılan sorularaysa az da olsa puan verilen standart testlere benziyor.
Araştırmacılar üretken yapay zeka için "yaygın olarak kullanılan, doğruluk temelli değerlendirmelerin güncellenmesi ve puanlamanın tahmin yürütmekten caydıracak hale gelmesi gerektiğini" söylüyor.
Bu, halüsinasyonların bastırılmasının önündeki engelleri kaldırabilir ve nüanslı dil modelleri üzerine gelecekteki çalışmalara kapı açabilir.
Independent Türkçe, independent.co.uk/tech