OpenAI'ın "gizli projesi" Q* ne kadar tehlikeli?

"Yapay zekada büyük bir atılım"

Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
TT

OpenAI'ın "gizli projesi" Q* ne kadar tehlikeli?

Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)

Dünyanın önde gelen yapay zeka şirketlerinden OpenAI'ın kurucu ortağı Sam Altman'ın yönetim kurulu tarafından kovulmasıyla başlayan ve 5 gün sonra görevine dönmesiyle sona eren kaos şüphe, spekülasyon ve endişe dalgasına neden oldu.

Bunların başında da yapay zeka firmasının "tehlikeli bir icat" yaptığı iddiası geliyor.

Reuters'ın 23 Kasım'da yayımladığı ve isimsiz bir kaynağa dayandırdığı haberinde şirkette Q* adlı üstün bir yapay zekanın geliştirildiği öne sürülmüştü.

Adı verilmeyen kaynak, "Yeni model belirli matematik problemlerini çözmeyi başardı" demişti. Öte yandan bu matematik problemlerinin yalnızca ilkokul öğrencileri düzeyinde olduğu belirtilmişti. 

Reuters ayrıca bazı araştırmacıların, Altman'ı ihraç eden yönetim kurulu üyelerine Q*'nun potansiyel tehlikelerini dile getiren bir mektup gönderdiğini yazmıştı.

The Information'ın da isimsiz bir kaynağa dayandırdığı bir diğer habere göre, Q* "çok daha güçlü yapay zeka modellerine" olanak tanıyacak bir atılım olarak görülüyor.

Ancak aynı zamanda yeni yapay zeka araçlarının geliştirilme hızının güvenliğe odaklanan bazı araştırmacıları alarma geçirdiği söyleniyor.

Altman ise 30 Kasım'da The Verge'e verdiği röportajda iddiaları yalanlamamıştı.

Q* ne olabilir?

Analistler, bahsi geçen yeni aracın OpenAI'ın mayısta duyurduğu ve "süreç denetimi" (process supervision) adı verilen teknik sayesinde daha iyi sonuçlar elde edildiğini iddia eden bir projeyle ilgili olabileceğini düşünüyor.

Projede OpenAI'ın baş bilim adamı ve kurucu ortağı Ilya Sutskever'ın da aktif rol aldığı söyleniyor. Sutskever, başlangıçta Altman'ın görevden alınması yönünde oy kullanan yönetim kurulu üyelerinden biriydi. Ancak daha sonra bu konuda geri adım atmış ve pişman olduğunu söylemişti.

Şimdiye kadar edinilen bilgiler, araştırmacının Q* üzerinde çalışmaya öncülük ettiğini gösteriyor.

Mayısta duyurulan proje, ChatGPT'nin de aralarında yer aldığı büyük dil modellerinin (LLM'ler) yaptığı mantıksal hataların azaltılmasına odaklanıyor.

Hem Google hem de Baidu'da yapay zeka laboratuvarlarını yöneten ve Coursera'daki dersleri aracılığıyla birçok insanı makine öğrenimiyle tanıştıran Stanford Üniversitesi profesörü Andrew Ng'e göre bu, büyük dil modellerini geliştirmenin ve daha kullanışlı hale getirmenin bir sonraki adımı.

Ng, "LLM'ler matematikte o kadar iyi değil ama insanlar da iyi sayılmaz" diyor:

Ancak bana bir kalem ve kağıt verirseniz, o zaman çarpma işlemini çok daha iyi yaparım.

Q-öğrenmeye gönderme mi yapılıyor?

Diğer yandan Q*'nun ne olabileceğine dair başka ipuçları da var. Nitekim bu ismin pekiştirmeli bir öğrenme algoritması olan Q-öğrenmeye (Q-learning) gönderme olabileceği düşünülüyor.

Oyun oynayan botlar oluşturmak ve ChatGPT'yi daha yararlı olacak şekilde ayarlamak için de kullanılan sistem, olumlu veya olumsuz geri bildirimler yoluyla bir sorunu çözmeyi öğrenen algoritmayı içeriyor.

Bazı uzmanlarsa ismin aynı zamanda bir programın hedefe giden en uygun yolu bulmasını sağlamak için yaygın kullanılan A* arama algoritmasıyla da ilişkili olabileceğini öne sürüyor.

The Information'ın haberinde de konuyla ilgili bir başka ipucu yer alıyor:

Sutskever'ın atılımı, OpenAI'ın yeni modelleri eğitmek için yüksek kaliteli veri elde etmenin önündeki engellerin üstesinden gelmesine olanak sağladı. Araştırma, yeni modelleri eğitmek için internetten alınan metin veya görsel gibi gerçek dünya verileri yerine bilgisayar tarafından oluşturulan verilerin kullanılmasını içeriyordu.

Yapay zekanın bilgisayar tarafından üretilen verilerle eğitilmesi sıklıkla gündeme gelen bir konu. Bunlara "sentetik eğitim verileri" deniyor ve daha güçlü yapay zeka modellerinin geliştirilmesini sağlayacağı düşünülüyor.

Bu yöntemler ChatGPT'yi matematik bilmecelerinde daha iyi hale getirse de yapay zeka sistemlerinin insan kontrolünden çok yakında çıkabileceği anlamına gelmiyor.

Öte yandan OpenAI, Q*'yla ilgili yorum yapmayı halen reddediyor. 

Independent Türkçe



Gazze, İsrail'in yapay zeka teknolojilerini test ettiği bir alana dönüştü

İsrail ordusunun Matzpen teknoloji birimi (Reuters)
İsrail ordusunun Matzpen teknoloji birimi (Reuters)
TT

Gazze, İsrail'in yapay zeka teknolojilerini test ettiği bir alana dönüştü

İsrail ordusunun Matzpen teknoloji birimi (Reuters)
İsrail ordusunun Matzpen teknoloji birimi (Reuters)

İnci Mecdi

İsrail tarafından geliştirilen ve 7 Ekim 2023 tarihinden bu yana Gazze’deki savaş sırasında Hamas liderlerinin yerini tespit etmek için kullanılan yapay zeka (AI) teknolojileri, özellikle de İsrail'e askeri bir avantaj sağlayan bu teknolojilerin kullanılmasının feci sonuçları göz önüne alındığında, giderek artan etik kaygılara yol açıyor.

İsrailli ve ABD’li yetkililerin ABD merkezli New York Times (NYT) gazetesine verdiği bilgilere göre İsrailli subaylar yapay zeka tabanlı askeri teknolojiyi ilk kez 2023 yılının sonlarında, 7 Ekim 2023 saldırılarının planlanmasına yardımcı olan Hamas’ın üst düzey liderlerinden İbrahim el-Bayari'ye suikast düzenlemek için kullandı. İsrail istihbaratı, Gazze Şeridi'nin altındaki tünellerde saklandığına inanılan Bayari’nin yerini başlangıçta tespit edemedi. Bu da on yıl önce savaşta kullanılmadan geliştirilmiş olan aracı geliştirmek için yeni bir teşvik sağladı. İçeridekilere göre Birim 8200 mühendisleri yapay zekayı bu araca dahil etmekte gecikmedi. İsrail kısa süre içinde Bayari'nin aramalarını dinleyebildi ve aramaların yapıldığı yerin yaklaşık konumunu veren sesli yapay zeka aracını test etti. İsrail bu bilgiyi kullanarak 31 Ekim 2023'te bölgeyi hedef alan hava saldırıları düzenledi ve Bayari'yi öldürdü.

“The Studio”

Ancak İsrail'in savaş sırasında kullandığı yapay zeka teknolojileri önemli sivil kayıplara yol açtı. Şarku’l Avsat’ın Londra merkezli çatışma izleme kuruluşu Airwars'tan aktardığı verilere göre Bayari'ye yapılan saldırıda 125'ten fazla sivil öldü. Kimliklerinin gizli kalması şartıyla NYT’ye konuşan ABD ve İsrailli dokuz yetkilinin açıklamalarına göre Bayari suikastı için düzenlenen hava saldırısında 125'ten fazla sivil öldürüldü. Bunun için kullanılan sonik araç, İsrail'in Gazze'deki savaşı yapay zeka destekli askeri teknolojileri dünyanın daha önce hiç görmediği bir hızda test etmek ve uygulamak için nasıl kullandığının sadece bir örneğiydi.

İsrail, geçtiğimiz 18 ay boyunca kısmen gizlenmiş ya da yaralanmış olan yüzleri gerçek kimliklerle eşleştirmek için yapay zekayı yüz tanıma yazılımına da entegre etti. Potansiyel hava saldırısı hedeflerini gruplandırmak için yapay zekayı kullandı. İki kaynağa göre, mesajları, sosyal medya gönderilerini ve Arapça diğer verileri toplayıp analiz edebilen bir sohbet robotunu güçlendirmek için Arapça bir yapay zeka modeli oluşturdu.

NYT'ye konuşan ve söz konusu teknolojiler hakkında bilgi sahibi olan kişilere göre bu çabaların çoğu Birim 8200'de görevlendirilen askerler ile Google, Microsoft ve Meta gibi teknoloji şirketlerinde çalışan yedek askerler arasında bir ortaklığın da önünü açtı. Kaynaklar, Birim 8200'ün bir inovasyon merkezi ve uzmanların yapay zeka projeleriyle eşleştirildiği bir yer olan The Studio'yu oluşturduğunu söyledi.

Yedek askerler

İsrailli yetkililer, Hamas'ın 7 Ekim 2023'te İsrail'e sınır ötesi saldırılar düzenleyerek bin 200'den fazla kişiyi öldürmesi ve 250’den fazla kişiyi rehin almasının ardından, Birim 8200 ile The Studio’daki yedek askerler arasındaki iş birliğinin hızla yeni yapay zeka teknolojileri geliştirmesine izin verildiğini açıkladı. Yatırımcıları şirketlerle buluşturan ve kâr amacı gütmeyen İsrailli bir kuruluş olan Startup Nation Central'ın CEO'su Avi Hasson, META, Google ve Microsoft'ta çalışan İsrailli yedek askerlerin insansız hava araçları (İHA) ve veri füzyonu (bilgi bütünleştirme) alanlarında inovasyonu teşvik eden kilit unsurlar haline geldiğini söyledi. Yedek subaylar teknik bilgi birikimi ve orduda bulunmayan kilit teknolojilere erişim sağladılar.

İsrail ordusu İHA filosunu güçlendirmek için de hızla yapay zekayı kullandı. İsrail ordusuyla birlikte çalışan bir yazılım ve yürüyüş şirketi olan XTEND’ın kurucusu ve CEO'su Aviv Shapira, hedefleri uzaktan tanımlayan ve takip eden İHA’lar geliştirmek için yapay zeka algoritmalarının kullanıldığını söyledi.

İsrailli ve ABD'li yetkililere göre İsrail yapay zeka tabanlı cephaneliğini geliştirmek için yarışırken bile, bu teknolojilerin kullanılması bazen yanlış kimliklere, tutuklamalara ve sivil ölümlerine yol açtı. Bazıları, gözetimin artmasına ve sivillerin öldürülmesine yol açabilecek yapay zekanın etik sonuçları hakkında tartışırken Avrupalı ve ABD'li savunma yetkilileri, başka hiçbir ülkenin mevcut savaşlar sırasında yapay zeka araçlarını denemede İsrail kadar aktif olmadığını ve bu teknolojilerin gelecekteki savaşlarda nasıl kullanılabileceğine ve nasıl başarısız olabileceklerine dair bir fikir verdiğini söyledi.

Geniş dil modeli

The Studio tarafından geliştirilen araçlardan biri de geniş dil modeli olarak bilinen Arapça yapay zeka modeliydi. Konuyla ilgili bilgi sahibi İsrailli subaylara göre ülkede onlarca yıldır Arapça konuşulan lehçelerde ele geçirilmiş kısa mesajlar (SMS), telefon görüşmeleri ve sosyal medya paylaşımları bulunuyor. Bu yüzden İsrailli subaylar savaşın ilk birkaç ayında geniş bir dil modeli oluşturdular ve Arapça sorgular yapmak için bir chatbot geliştirdiler. ABD’li ve İsrailli yetkililerin dördü, aracın multimedya veri tabanlarıyla entegre edilerek analistlerin görüntü ve videolar üzerinde karmaşık aramalar yapabilmelerinin sağlandığını söyledi.

İsrailli üç subaya göre İsrail geçtiğimiz eylül ayında Hizbullah lideri Hasan Nasrallah'a suikast düzenlediğinde, bahsi geçen chatbot Arap dünyasındaki tepkileri analiz etti. Teknoloji, halkın tepkilerini ölçmek için Lübnan'daki farklı lehçeleri ayırt ederek İsrail'in karşı saldırı başlatmak için kamuoyu baskısı olup olmadığını değerlendirmesine yardımcı oldu. Ancak iki subaydan biri, chatbotun bazen İngilizceden Arapçaya çevrilen bazı modern argo terimleri ve kelimeleri tanımlayamadığını, bunun da farklı lehçelerde uzman İsrailli istihbarat subaylarının çalışmasını gözden geçirip düzeltmesini gerektirdiğini belirtti.

İsrailli iki istihbarat yetkilisine göre chatbot bazen yanlış cevaplar verdi. Aynı yetkililer, chatbotun örneğin tüfekleri boru olarak gösterdiğini, ancak yapay zeka aracının araştırma ve analizi büyük ölçüde hızlandırdığını söylediler.

İsrail ayrıca 7 Ekim 2023 saldırılarından sonra Gazze Şeridi'nin kuzeyi ve güneyi arasında kurulan geçici kontrol noktalarına, Filistinlilerin yüksek çözünürlüklü görüntülerini tarayıp yapay zeka destekli yüz tanıma yazılımına gönderme özelliğine sahip kameralar yerleştirmeye başladı. Ancak sistem, zaman zaman yüzleri gizlenmiş kişileri tanımlamakta zorlandı. Bu durum, yüz tanıma sistemi tarafından yanlışlıkla teşhis edilen Filistinlilerin tutuklanmasına ve sorgulanmasına yol açtı.