OpenAI, Google ve Meta gibi şirketlerin geçen yıl piyasaya sürdüğü ‘dil modelleri’ söz konusu olduğunda yapay zeka hakkında ne kadar şey biliniyor? Cevap: Herhangi bir bilgi yok.
Söz konusu şirketler genellikle modellerini eğitmek için kullandıkları veriler veya bunları çalıştırmak için kullandıkları araçlar hakkında bilgi paylaşma konusunda isteksiz. Bugüne kadar, yapay zeka sistemleri için bir kullanıcı kılavuzu, bu sistemlerin kapasitelerini açıklayan bir liste ve hatta bunlar üzerinde yapılan güvenlik testleri bulunmuyor.
Bazı yapay zeka modellerinin açık kaynaklı olduğu (yani kodları ücretsiz olarak halka açık) doğru. Ancak insanlar bunları oluşturma süreci veya yayınlandıktan sonra ne olduğu hakkında pek bir şey bilmiyor.
Stanford Üniversitesi değerlendirmesi
Şarku’l Avsat’ın New York Times’dan aktardığına göre Stanford Üniversitesi'nden araştırmacılar yakın zamanda bu durumu değiştirmeye yardımcı olması umuduyla bir değerlendirme sistemi başlattı.
Temel Model Şeffaflık Endeksi adı verilen proje, yapay zeka destekli 10 büyük dil modelini (bazen ‘temel modeller’ olarak da adlandırılıyor) şeffaflık derecelerine göre sıralıyor.
Endeks, Amazon’dan ‘Titan Text’ ve ‘Bai’ sohbet robotunu işleten Inflection AI’dan ‘Inflection-1’ gibi daha az popüler modellere ek olarak OpenIE'den GPT-4 (ChatGPT'nin ücretli sürümünü çalıştıran), PaLM 2 (soğuk bir model çalıştıran) ve Meta'dan LLaMA 2 gibi popüler modelleri içeriyor.
Araştırmacılar, sınıflandırmayı tasarlamak için her modeli, üretici şirketin eğitim verilerinin kaynaklarını ve kullanılan araçlarla ilgili bilgileri açıklaması ve diğer ayrıntıların yanı sıra eğitime katılan işçiler gibi 100 kritere göre değerlendirdi. Sıralamalar ayrıca modelin üretilmesinde kullanılan işgücü ve verilerin yanı sıra araştırmacıların modelin piyasaya sürüldükten sonra nasıl kullanılacağına ilişkin ‘aşağı yönlü göstergeler’ olarak adlandırdıkları bilgileri de içeriyordu. (Örneğin, bir soru şöyleydi: Geliştirici, kullanıcı verilerini depolamak, erişmek ve paylaşmak için kullandığı protokolleri açıkladı mı?)
Yapay zeka şeffaflığı
Araştırmacılar yaptıkları sınıflandırmanın ardından en şeffaf modelin yüzde 54 puanla ‘LLaMA 2’ olduğunu, ‘GPT-4’ ve ‘PaLM 2’nin ise yüzde 40 ile üçüncü en yüksek şeffaflık puanını elde ettiğini tespit etti.
Stanford'daki Temel Model Araştırma Merkezi'nin direktörü Percy Liang, taksonomi projesini yapay zeka endüstrisinde azalan şeffaflığa gerekli bir yanıt olarak nitelendirdi. Liang, yapay zekaya yatırım yapmak için para akışının ve büyük teknoloji şirketlerinin sektörü kontrol etme mücadelesinin, son zamanlarda birçoğunun kendilerini tam bir gizlilikle çevrelemelerine neden olduğunu da sözlerine ekledi.
Percy Liang konuyu şöyle açıkladı:
Üç yıl önce insanlar modelleri hakkında daha fazla ayrıntı yayınlıyor ve paylaşıyorlardı. Bugün ise bu modellerin doğası, nasıl geliştirildikleri ve nerede kullanıldıkları hakkında hiçbir bilgi yok.
Günümüzde şeffaflık olağanüstü bir öneme sahip. Çünkü yapay zeka araçları, milyonların günlük hayatına girmesinin yanı sıra giderek daha güçlü hale geliyor. Bu sistemlerin nasıl çalıştığı hakkında daha fazla bilgi sahibi olmak, düzenleyicilerin, araştırmacıların ve kullanıcıların neyle karşı karşıya olduklarını daha iyi anlamalarını sağlayacak ve modellerin arkasındaki şirketler hakkında yapıcı sorular sormalarına olanak tanıyacaktır.
Percy Liang ayrıca ‘bugün bu modellerin geliştirilmesiyle ilgili olarak alınan bazı önemli kararlara katılımın eksikliğini’ vurguladı.
Haksız gizlilik
PercyLiang, yapay zeka şirketlerindeki yöneticilere modelleri hakkında neden daha fazla bilgi paylaşmadıkları sorusuna ilişkin şu üç ortak yanıttan birini duyduğunu belirtti:
- Davalar: Yapay zeka şirketleri, yazarlar, sanatçılar ve medya şirketleri tarafından açılan ve kendilerini yapay zeka modellerini eğitmek için telif hakkıyla korunan eserleri yasadışı olarak kullanmakla suçlayan çeşitli davalarla karşı karşıya. Bugüne kadar bu davaların çoğu açık kaynaklı yapay zeka projelerini veya modelleri hakkında ayrıntılı bilgi yayınlayan projeleri hedef aldı. Yapay zeka şirketlerinin yasal temsilcileri, modellerini oluşturmaya ilişkin ayrıntıları açıklamanın daha sıkıntılı ve maliyetli yasal sonuçlara yol açacağından korkuyor.
-Rekabet: Yapay Zeka şirketleri modellerinin işe yaradığına inanıyor çünkü diğer şirketlerin sahip olmadığı niteliksel veriler, daha iyi sonuçlar üreten son derece rafine edilmiş teknoloji ve ona avantaj sağlayan bazı iyileştirmelerin bir kombinasyonuna sahipler. Bu şirketler, gizli tariflerini açıklamaya zorlandıkları takdirde, rakiplerine zor kazanılmış bilgeliklerini gümüş tepside sunmuş olacaklarını savunuyor.
-Güvenlik: Bazı yapay zeka uzmanları, yapay zeka şirketlerinin modelleri hakkında ne kadar çok bilgi paylaşırsa, teknolojinin o kadar hızlı ilerleyeceğini savunuyor. Çünkü bu şirketlerin her biri rakibinin neyi başardığını görecek ve hemen daha iyi, daha büyük ve daha hızlı bir model oluşturarak onu geride bırakmaya çalışacaktır. Böylece, toplumun yapay zekayı düzenlemek ve yavaşlatmak için yeterli zamanı olmayacak ve yapay zeka daha hızlı güçlenirse hepimizi daha fazla riske maruz bırakacak.
Bu modellerin niteliği, nasıl geliştirildikleri ve nerede kullanıldıkları hakkında ise herhangi bir bilgi bulunmuyor.
İnandırıcı olmayan açıklamalar
Ancak Şarku’l Avsat’ın New York Times’dan aktardığına göre Stanford araştırmacıları bu açıklamalara inanmıyor. Yapay zeka şirketlerinin modellerinin gücünü gösteren yeterli bilgiyi ifşa etmeleri için baskı altında olmaları gerektiği görüşündeler. Çünkü kullanıcılar, araştırmacılar ve kanun koyucular bu modellerin nasıl çalıştığının, sınırlarının ve yol açabilecekleri tehlikenin derecesinin farkında olmalı.
Projeye katılan araştırmacılardan Rishi Bomasani ise açıklamasında şunları söyledi:
Şeffaflık, bu teknolojinin artan etkisiyle aynı zamana denk gelen gözle görülür bir düşüşe tanık oluyor. Onlara katılıyoruz. Çünkü bu temel modeller muğlak kalamayacak kadar güçlü ve onlar hakkındaki bilgimiz arttıkça, oluşturabilecekleri tehditleri, getirebilecekleri faydaları veya onları nasıl organize edebileceğimizi daha iyi anlıyoruz.
Yapılan açıklamalar davalardan endişe duyan yapay zeka şirketleri yöneticilerinin belki de kanıtları gizlemek yerine modellerini eğitmek için özel bilgileri kullanma yeteneklerini koruyan adil bir muafiyet için mücadele etmeleri gerektiği yönünde. Ticari sırlarını rakiplerine vermekten endişe ediyorlarsa, başka bir tür bilgiyi açıklayabilir veya fikirlerini bir patentle koruyabilirler. Eğer yapay zeka silahlanma yarışı metaforundan endişe duyuyorlarsa halihazırda şu soru önlerine çıkıyor:
Şu an orada değil miyiz?
Yapay Zeka devriminin karanlıkta gerçekleşmesine izin verilemez. Hayatları değiştirmesine izin verilmek isteniyorsa yapay zekanın kara kutularının içinde ne olduğu bilinmeli.
* New York Times servisi