OpenAI'ın "gizli projesi" Q* ne kadar tehlikeli?

"Yapay zekada büyük bir atılım"

Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
TT

OpenAI'ın "gizli projesi" Q* ne kadar tehlikeli?

Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)

Dünyanın önde gelen yapay zeka şirketlerinden OpenAI'ın kurucu ortağı Sam Altman'ın yönetim kurulu tarafından kovulmasıyla başlayan ve 5 gün sonra görevine dönmesiyle sona eren kaos şüphe, spekülasyon ve endişe dalgasına neden oldu.

Bunların başında da yapay zeka firmasının "tehlikeli bir icat" yaptığı iddiası geliyor.

Reuters'ın 23 Kasım'da yayımladığı ve isimsiz bir kaynağa dayandırdığı haberinde şirkette Q* adlı üstün bir yapay zekanın geliştirildiği öne sürülmüştü.

Adı verilmeyen kaynak, "Yeni model belirli matematik problemlerini çözmeyi başardı" demişti. Öte yandan bu matematik problemlerinin yalnızca ilkokul öğrencileri düzeyinde olduğu belirtilmişti. 

Reuters ayrıca bazı araştırmacıların, Altman'ı ihraç eden yönetim kurulu üyelerine Q*'nun potansiyel tehlikelerini dile getiren bir mektup gönderdiğini yazmıştı.

The Information'ın da isimsiz bir kaynağa dayandırdığı bir diğer habere göre, Q* "çok daha güçlü yapay zeka modellerine" olanak tanıyacak bir atılım olarak görülüyor.

Ancak aynı zamanda yeni yapay zeka araçlarının geliştirilme hızının güvenliğe odaklanan bazı araştırmacıları alarma geçirdiği söyleniyor.

Altman ise 30 Kasım'da The Verge'e verdiği röportajda iddiaları yalanlamamıştı.

Q* ne olabilir?

Analistler, bahsi geçen yeni aracın OpenAI'ın mayısta duyurduğu ve "süreç denetimi" (process supervision) adı verilen teknik sayesinde daha iyi sonuçlar elde edildiğini iddia eden bir projeyle ilgili olabileceğini düşünüyor.

Projede OpenAI'ın baş bilim adamı ve kurucu ortağı Ilya Sutskever'ın da aktif rol aldığı söyleniyor. Sutskever, başlangıçta Altman'ın görevden alınması yönünde oy kullanan yönetim kurulu üyelerinden biriydi. Ancak daha sonra bu konuda geri adım atmış ve pişman olduğunu söylemişti.

Şimdiye kadar edinilen bilgiler, araştırmacının Q* üzerinde çalışmaya öncülük ettiğini gösteriyor.

Mayısta duyurulan proje, ChatGPT'nin de aralarında yer aldığı büyük dil modellerinin (LLM'ler) yaptığı mantıksal hataların azaltılmasına odaklanıyor.

Hem Google hem de Baidu'da yapay zeka laboratuvarlarını yöneten ve Coursera'daki dersleri aracılığıyla birçok insanı makine öğrenimiyle tanıştıran Stanford Üniversitesi profesörü Andrew Ng'e göre bu, büyük dil modellerini geliştirmenin ve daha kullanışlı hale getirmenin bir sonraki adımı.

Ng, "LLM'ler matematikte o kadar iyi değil ama insanlar da iyi sayılmaz" diyor:

Ancak bana bir kalem ve kağıt verirseniz, o zaman çarpma işlemini çok daha iyi yaparım.

Q-öğrenmeye gönderme mi yapılıyor?

Diğer yandan Q*'nun ne olabileceğine dair başka ipuçları da var. Nitekim bu ismin pekiştirmeli bir öğrenme algoritması olan Q-öğrenmeye (Q-learning) gönderme olabileceği düşünülüyor.

Oyun oynayan botlar oluşturmak ve ChatGPT'yi daha yararlı olacak şekilde ayarlamak için de kullanılan sistem, olumlu veya olumsuz geri bildirimler yoluyla bir sorunu çözmeyi öğrenen algoritmayı içeriyor.

Bazı uzmanlarsa ismin aynı zamanda bir programın hedefe giden en uygun yolu bulmasını sağlamak için yaygın kullanılan A* arama algoritmasıyla da ilişkili olabileceğini öne sürüyor.

The Information'ın haberinde de konuyla ilgili bir başka ipucu yer alıyor:

Sutskever'ın atılımı, OpenAI'ın yeni modelleri eğitmek için yüksek kaliteli veri elde etmenin önündeki engellerin üstesinden gelmesine olanak sağladı. Araştırma, yeni modelleri eğitmek için internetten alınan metin veya görsel gibi gerçek dünya verileri yerine bilgisayar tarafından oluşturulan verilerin kullanılmasını içeriyordu.

Yapay zekanın bilgisayar tarafından üretilen verilerle eğitilmesi sıklıkla gündeme gelen bir konu. Bunlara "sentetik eğitim verileri" deniyor ve daha güçlü yapay zeka modellerinin geliştirilmesini sağlayacağı düşünülüyor.

Bu yöntemler ChatGPT'yi matematik bilmecelerinde daha iyi hale getirse de yapay zeka sistemlerinin insan kontrolünden çok yakında çıkabileceği anlamına gelmiyor.

Öte yandan OpenAI, Q*'yla ilgili yorum yapmayı halen reddediyor. 

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging