ChatGPT çöktü ve kullanıcılara endişe verici mesajlar göndermeye başladı

ChatGPT logosu (AFP)
ChatGPT logosu (AFP)
TT

ChatGPT çöktü ve kullanıcılara endişe verici mesajlar göndermeye başladı

ChatGPT logosu (AFP)
ChatGPT logosu (AFP)

OpenAI tarafından geliştirilen bir yapay zeka sohbet robotu olan ChatGPT’nin yakın zamanda bir arıza yaşadığı ve kullanıcıların saçma ve mantıksız yanıtlar aldığı görüldü.

Şarku’l Avsat’ın The Independent gazetesinden aktardığı habere göre, yapay zeka sohbet robotu, son saatlerde sorulara uzun ve anlamsız mesajlarla yanıt verdi.

Sorulmadan İspanyolca mesajlar yazdı ve aynı zamanda odada onlarla birlikte olduğunu öne sürerek kullanıcıları endişelendirdi.

Sorunun neden oluştuğuna dair net bir gösterge yok. Ancak uygulamanın yaratıcıları, sorunun farkında olduklarını ve durumu izlediklerini söyledi.

Reddit’te paylaşılan bir örneğe göre, bir kullanıcı plakta dinlenebilecek caz albümlerinden bahsetti.

ChatGPT’den çok geçmeden yüksek sesle ‘İyi dinlemeler!’ ifadesi geldi. Ayrıca kullanıcıya agresif davranarak, mantıksız yanıtlar vermeye başladı.

Diğer bir kullanıcı ise ‘Bilgisayar nedir?’ gibi basit soruya, paragraflar dolusu tuhaf yanıtlar verildiğini bildirdi.

Başka bir örnekte ChatGPT, güneşte kurutulmuş domateslerin nasıl yapılacağı sorulduğunda anlamsız sözlerle yanıt verdi.

Bir grup başka kullanıcı ise sistemin konuştuğu diller üzerindeki hakimiyetini kaybettiğini fark etti. 

Bazıları bunun İspanyolca kelimeleri İngilizce ile karıştırdığını, Latince kullandığını veya başka bir dilden geliyormuş gibi görünen ama aslında hiçbir anlam ifade etmeyen kelimeler uydurduğunu gördü.

Hatta bazı kullanıcılar, yanıtların endişe verici göründüğünü bile söyledi. 

Kodlama sorunuyla ilgili yardım istenen ChatGPT, “Sırayı sanki odada yapay zeka varmış gibi tutalım” ifadesini içeren uzun, başıboş ve büyük ölçüde saçma bir yanıt verdi.

Bu yanıtı alan kullanıcı Reddit’de “Bunu gece 02.00’da okumak korkutucu” diye yazdı.

OpenAI araçlarını kullanan geliştiricilere yönelik forumda ‘IYAnepo’ adlı bir kullanıcı, ChatGPT’nin tuhaf davranışına dikkat çekti.

FOTO: OpenAI şirket logosu (AP)
OpenAI şirket logosu (AP)

Söz konusu kullanıcı, konuya ilişkin şu ifadeleri kullandı:

“Tamamen var olmayan kelimeler üretiyor, kelimeleri atlıyor ve diğer anormalliklerin yanı sıra benim için anlaşılmaz olan küçük anahtar kelime dizileri üretiyor. Bu tür talimatlar verdiğimi düşünebilirsiniz, ancak durum böyle değil. GPT’min hayaletli olduğunu hissediyorum.”

OpenAI, dün yaptığı açıklamada, ‘kullanıcı deneyimi optimizasyon sürecinin’, programın dili işleme biçiminde bir hataya yol açtığını bildirdi.

Şirket, dilsel modellerin sözcükleri rastgele örnekleyerek yanıtlar ürettiğini ve kısmen olasılıklara dayandığını açıkladı.

Bir süre sonra yapılan bir diğer açıklamada, sorunun çözüldüğü duyuruldu.

Bu olay bize, yapay zekanın, üretken olsa bile, kullanıcılarla yapılan görüşmelerde verebileceği izlenimin aksine, ‘söylediğini’ anlamadığını hatırlatıyor.

Görünüşe göre geliştirici OpenAI’nin katkısı olmadan ChatGPT’nin soruları yanıtlama biçimini değiştirmesi ilk kez olmadı.

Geçtiğimiz yılın sonlarına doğru kullanıcılar, sistemin tembelleştiğinden, küstahlaştığından ve soruları yanıtlamayı reddettiğinden şikayetçiydi.

OpenAI, 2022 sonlarında ChatGPT programını başlatarak yapay zeka alanında devrim yarattı.

Programın kısa sürede elde ettiği başarı, günlük dilde basit bir isteğe dayalı olarak, genellikle şaşırtıcı kalitede metin, ses, görüntü ve videolar oluşturabilen bu son teknolojiye büyük ilgi uyandırdı.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging