OpenAI'ın "gizli projesi" Q* ne kadar tehlikeli?

"Yapay zekada büyük bir atılım"

Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
TT

OpenAI'ın "gizli projesi" Q* ne kadar tehlikeli?

Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)
Sam Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (OpenAI)

Dünyanın önde gelen yapay zeka şirketlerinden OpenAI'ın kurucu ortağı Sam Altman'ın yönetim kurulu tarafından kovulmasıyla başlayan ve 5 gün sonra görevine dönmesiyle sona eren kaos şüphe, spekülasyon ve endişe dalgasına neden oldu.

Bunların başında da yapay zeka firmasının "tehlikeli bir icat" yaptığı iddiası geliyor.

Reuters'ın 23 Kasım'da yayımladığı ve isimsiz bir kaynağa dayandırdığı haberinde şirkette Q* adlı üstün bir yapay zekanın geliştirildiği öne sürülmüştü.

Adı verilmeyen kaynak, "Yeni model belirli matematik problemlerini çözmeyi başardı" demişti. Öte yandan bu matematik problemlerinin yalnızca ilkokul öğrencileri düzeyinde olduğu belirtilmişti. 

Reuters ayrıca bazı araştırmacıların, Altman'ı ihraç eden yönetim kurulu üyelerine Q*'nun potansiyel tehlikelerini dile getiren bir mektup gönderdiğini yazmıştı.

The Information'ın da isimsiz bir kaynağa dayandırdığı bir diğer habere göre, Q* "çok daha güçlü yapay zeka modellerine" olanak tanıyacak bir atılım olarak görülüyor.

Ancak aynı zamanda yeni yapay zeka araçlarının geliştirilme hızının güvenliğe odaklanan bazı araştırmacıları alarma geçirdiği söyleniyor.

Altman ise 30 Kasım'da The Verge'e verdiği röportajda iddiaları yalanlamamıştı.

Q* ne olabilir?

Analistler, bahsi geçen yeni aracın OpenAI'ın mayısta duyurduğu ve "süreç denetimi" (process supervision) adı verilen teknik sayesinde daha iyi sonuçlar elde edildiğini iddia eden bir projeyle ilgili olabileceğini düşünüyor.

Projede OpenAI'ın baş bilim adamı ve kurucu ortağı Ilya Sutskever'ın da aktif rol aldığı söyleniyor. Sutskever, başlangıçta Altman'ın görevden alınması yönünde oy kullanan yönetim kurulu üyelerinden biriydi. Ancak daha sonra bu konuda geri adım atmış ve pişman olduğunu söylemişti.

Şimdiye kadar edinilen bilgiler, araştırmacının Q* üzerinde çalışmaya öncülük ettiğini gösteriyor.

Mayısta duyurulan proje, ChatGPT'nin de aralarında yer aldığı büyük dil modellerinin (LLM'ler) yaptığı mantıksal hataların azaltılmasına odaklanıyor.

Hem Google hem de Baidu'da yapay zeka laboratuvarlarını yöneten ve Coursera'daki dersleri aracılığıyla birçok insanı makine öğrenimiyle tanıştıran Stanford Üniversitesi profesörü Andrew Ng'e göre bu, büyük dil modellerini geliştirmenin ve daha kullanışlı hale getirmenin bir sonraki adımı.

Ng, "LLM'ler matematikte o kadar iyi değil ama insanlar da iyi sayılmaz" diyor:

Ancak bana bir kalem ve kağıt verirseniz, o zaman çarpma işlemini çok daha iyi yaparım.

Q-öğrenmeye gönderme mi yapılıyor?

Diğer yandan Q*'nun ne olabileceğine dair başka ipuçları da var. Nitekim bu ismin pekiştirmeli bir öğrenme algoritması olan Q-öğrenmeye (Q-learning) gönderme olabileceği düşünülüyor.

Oyun oynayan botlar oluşturmak ve ChatGPT'yi daha yararlı olacak şekilde ayarlamak için de kullanılan sistem, olumlu veya olumsuz geri bildirimler yoluyla bir sorunu çözmeyi öğrenen algoritmayı içeriyor.

Bazı uzmanlarsa ismin aynı zamanda bir programın hedefe giden en uygun yolu bulmasını sağlamak için yaygın kullanılan A* arama algoritmasıyla da ilişkili olabileceğini öne sürüyor.

The Information'ın haberinde de konuyla ilgili bir başka ipucu yer alıyor:

Sutskever'ın atılımı, OpenAI'ın yeni modelleri eğitmek için yüksek kaliteli veri elde etmenin önündeki engellerin üstesinden gelmesine olanak sağladı. Araştırma, yeni modelleri eğitmek için internetten alınan metin veya görsel gibi gerçek dünya verileri yerine bilgisayar tarafından oluşturulan verilerin kullanılmasını içeriyordu.

Yapay zekanın bilgisayar tarafından üretilen verilerle eğitilmesi sıklıkla gündeme gelen bir konu. Bunlara "sentetik eğitim verileri" deniyor ve daha güçlü yapay zeka modellerinin geliştirilmesini sağlayacağı düşünülüyor.

Bu yöntemler ChatGPT'yi matematik bilmecelerinde daha iyi hale getirse de yapay zeka sistemlerinin insan kontrolünden çok yakında çıkabileceği anlamına gelmiyor.

Öte yandan OpenAI, Q*'yla ilgili yorum yapmayı halen reddediyor. 

Independent Türkçe



Sert eleştiriler alan Apple tasarım değişikliğine gidiyor

20 Eylül 2024'te New York'taki Apple Store'da düzenlenen lansman sırasında sergilenen Apple iPhone 16 telefonları (AFP)
20 Eylül 2024'te New York'taki Apple Store'da düzenlenen lansman sırasında sergilenen Apple iPhone 16 telefonları (AFP)
TT

Sert eleştiriler alan Apple tasarım değişikliğine gidiyor

20 Eylül 2024'te New York'taki Apple Store'da düzenlenen lansman sırasında sergilenen Apple iPhone 16 telefonları (AFP)
20 Eylül 2024'te New York'taki Apple Store'da düzenlenen lansman sırasında sergilenen Apple iPhone 16 telefonları (AFP)

Yeni haberlere göre Apple, işletim sisteminin tartışmalı yeni görünümünde bazı küçük değişiklikler yapmaya hazırlanıyor ancak bu tasarımdan tamamen vazgeçmeyecek.

Eylülde yeni iPhone 17 modelleriyle birlikte Apple, cihazlarında çalışan tüm yazılımlar için yeni bir görünüm olan "Sıvı Cam"ı tanıtmıştı.

Apple, bunun cihazlarının tek parça camdan oluştuğu fikrini yansıtmak ve insanların izledikleri içeriğe odaklanmasını sağlamak için tasarlandığını söylemişti. Ancak tasarımı eleştirenler, telefon kullanımını zorlaştırdığı ve önemli bilgileri gizlediği gerekçesiyle değişikliği sert biçimde eleştirmişti.

Apple daha sonra kullanıcılara en çok tartışılan şeffaflık efektlerinden bazılarını kapatma seçeneği sunmak da dahil olmak üzere tasarımda bir dizi küçük değişiklik yaptı. Ayrıca, değişikliğe öncülük eden ve kamuoyuna duyuran tasarımcı Alan Dye da şirketten ayrıldı.

Bu durum şirketin güncellemeyi tamamen terk etmeyi veya görünümünde önemli değişiklikler yapmayı planladığı yönünde bazı spekülasyonlara yol açtı.

Şimdiyse yeni bir habere göre Apple, iPhone'un görünümünde değişiklikler yapacak. Ancak Apple'daki değişiklikleri kamuoyuna açıklanmadan önce haberleştirme konusunda güçlü bir sicili olan Bloomberg'den Mark Gurman'a göre, değişiklikler özellikle yeni görünümün "gölge ve şeffaflıkla" ilgili pürüzlere odaklanacak.

Gurman, değişikliklerin özellikle macOS'ta yeni görünümün uygulanmasına odaklanacağını bildirdi. Bu sorunlar, Mac'lerin daha büyük ekranlarında belirgin olduğu için özellikle eleştirilmişti.

Gurman, bu eleştirilerin bir kısmının, Apple'ın yeni görünümü iPhone ve diğer Apple cihazlarındaki OLED ekranlarda kullanılmak üzere tasarlamış olmasından kaynaklanabileceğini öne sürdü. MacBook'larda henüz bu ekran teknolojisi yok ancak yakında piyasaya sürülmesi bekleniyor.

Gurman, yeni görünümün dışında Apple'ın yazılımının sonraki sürümleri için performans ve pil iyileştirmeleri üzerinde çalıştığını da bildirdi. Ayrıca Apple'ın yıllardır yeni yapay zeka teknolojisiyle geliştirmeyi vaat ettiği ancak henüz piyasaya sürülmemiş olan Siri'nin güncellenmiş bir sürümünü de getirmesi bekleniyor.

Apple'ın, tüm yeni değişiklikleri 8 Haziran'da yapılması planlanan yıllık yazılım etkinliği Dünya Geliştiriciler Konferansı'nda açıklaması bekleniyor.

Independent Türkçe


Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır
TT

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekânın insan beyni üzerindeki uzun vadeli etkilerinin henüz bilinmediği yönündeki uyarılar sürerken, yeni bir araştırma kısa vadeli kullanımın bile bilişsel performansı olumsuz etkileyebileceğini ortaya koydu. Araştırmaya göre yalnızca 10 dakikalık yapay zekâ kullanımı, bireylerin problem çözme performansında düşüşe yol açabiliyor.

Dört üniversiteden ortak araştırma

Carnegie Mellon University, University of Oxford, Massachusetts Institute of Technology ve University of California, Los Angeles araştırmacıları tarafından yürütülen çalışmada, katılımcılardan kesirli işlemlere dayalı matematik sorularını çözmeleri istendi.

Katılımcıların bir kısmı soruları kendi başına çözerken, diğer gruba “GPT-5” tabanlı bir yapay zekâ asistanı kullanma imkânı tanındı. Ancak deneyin son üç sorusunda bu yapay zekâ desteği aniden kesildi.

Yapay zekâ desteği ilk etapta başarıyı artırdı

Deneyin büyük bölümünde yapay zekâ kullanan grubun doğru çözüm oranı kontrol grubundan daha yüksek çıktı. Ancak destek kesildiğinde bu grubun performansı sert şekilde geriledi.

Araştırmaya göre yapay zekâ desteği kaldırıldıktan sonra, destek alan grubun soru çözme başarısı kontrol grubuna kıyasla yaklaşık yüzde 20 düştü.

Ayrıca yapay zekâ kullanan katılımcıların, destek kesildikten sonra soruları boş bırakma oranının da belirgin biçimde arttığı görüldü. Bu grubun soruları atlama oranı kontrol grubunun yaklaşık iki katına ulaştı.

10 dakikalık kullanım bile etkili olabilir

Araştırmacılar, katılımcıların yapay zekâya yalnızca yaklaşık 10 dakika erişebildiğine dikkat çekerek, kısa süreli kullanımın bile bireylerin kendi problem çözme becerilerine duyduğu güveni azaltabileceğini ifade etti.

Benzer yöntemle gerçekleştirilen ikinci deneyde ise bu kez matematik yerine okuduğunu anlama becerileri test edildi. Sonuçların büyük ölçüde benzer olduğu, ancak yapay zekâ kullanımının deneyin ilk bölümünde belirgin bir avantaj sağlamadığı kaydedildi.

Kullanım biçimi belirleyici oldu

Araştırmada dikkat çeken bir diğer unsur ise kullanıcıların yapay zekâyı hangi amaçla kullandığının sonuçları doğrudan etkilemesi oldu.

Doğrudan cevap isteyen katılımcıların performans kaybı ve soru atlama oranı daha yüksek çıktı. Katılımcıların yüzde 61’i yapay zekâdan doğrudan çözüm talep ettiğini belirtti.

Buna karşılık yalnızca ipucu veya açıklama isteyen katılımcılarda benzer bir performans düşüşü gözlenmedi. Bu grubun sonuçları kontrol grubuyla benzer seviyede kaldı.

Araştırmacılar, bu bulgunun tüm yapay zekâ kullanım biçimlerinin bilişsel açıdan zararlı olmadığını gösterdiğini vurguladı. Çalışmaya göre asıl risk, bireyin düşünme sürecini tamamen yapay zekâya devretmesi.

Önceki çalışmalarla benzer sonuçlar

Araştırma, yapay zekâ kullanımının bilişsel gerilemeyle ilişkili olabileceğini öne süren önceki çalışmalarla da paralellik gösteriyor.

Daha önce Massachusetts Institute of Technology tarafından yürütülen ve makale yazımı sırasında beyin aktivitesini inceleyen bir araştırmada, bağımsız çalışan yazarların beyin bağlantılarının, büyük dil modellerini kullanan yazarlara göre daha güçlü olduğu tespit edilmişti.

Ayrıca bilişsel emek ve tıp gibi alanlarda yapılan başka çalışmalarda da görevlerini yapay zekâ desteğiyle yerine getiren kişilerin, destek olmadan aynı görevleri gerçekleştirmekte daha fazla zorlandığı belirtilmişti.

Araştırmanın sonuç bölümünde bilim insanları şu değerlendirmeye yer verdi:

“Bulgularımız, günlük yapay zekâ kullanımının insanın azmi ve mantıksal düşünme becerileri üzerindeki birikimli etkilerine dair acil sorular doğuruyor.”

Araştırmacılar ayrıca şu uyarıda bulundu:

“Bu etkiler sürekli yapay zekâ kullanımıyla zaman içinde birikirse, kısa vadeli yardım sağlamak üzere tasarlanan mevcut yapay zekâ sistemleri, desteklemeyi amaçladıkları insan becerilerini zayıflatma riski taşıyabilir.”

Kaynak: Fast Company dergisi.


Yapay zeka "Bilmiyorum" demeyi öğrendi

Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
TT

Yapay zeka "Bilmiyorum" demeyi öğrendi

Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)

Güney Koreli araştırmacılar, yapay zeka modellerinin nihayet, belirli konulara aşina olmadıklarını insan davranışına benzer şekilde kabul etmelerini sağlayacak yeni bir yöntem geliştirdi.

Kore İleri Bilim ve Teknoloji Enstitüsü'nden araştırmacılar, bu atılımın otonom sürüş ve tıp gibi alanlarda kullanılan yapay zeka modellerinin güvenilirliğini artırabileceğini söylüyor.

Önceki araştırmalar, özellikle tıbbi teşhis gibi alanlarda, bu araçların karar alma süreçlerinde kullanılmasının en büyük risklerinden birinin yapay zekanın "aşırı özgüveni" olduğunu ortaya koymuştu.

OpenAI'ın ChatGPT'si gibi yaygın kullanılan yapay zeka modellerinin, bilmediklerini kabul etmek yerine tahmin yapmaya teşvik edildikleri için "halüsinasyon gördükleri", yani bilgi uydurdukları gösterilmişti.

Şimdiyse araştırmacılar, yapay zekanın aşina olmadığı veya daha önce karşılaşmadığı bilgilerin farkında olmasını sağlayan ve sohbet robotlarının genel güvenilirliğini artıran bir yöntem geliştirdi.

Araştırmacılar, yapay zekada aşırı özgüvenin temel nedeninin, omurga altyapısını oluşturan yapay sinir ağlarını kullanarak ilk verilerden öğrenme biçimi olduğunu söylüyor.

Bu aşamada ortaya çıkan küçük hatalar, düzeltilmezse yayılabiliyor ve sonraki eğitim sırasında önemli hatalara neden olabiliyor.

Araştırmacılar, başlatma aşamasında bir sinir ağına rastgele veri girildiğinde, modelin hiçbir şey öğrenmemiş olmasına rağmen yüksek bir güven sergilediğini buldu.

Bu durum "halüsinasyona" yol açtı.

Bunu ele almak için araştırmacılar, insan beyninin sorunu çözme biçiminden ipuçları kullandıklarını söylüyor.

İnsanlarda beyin sinyalleri doğumdan önce bile dış uyaran olmaksızın üretiliyor, bu da sorunun üstesinden gelmeye yardımcı oluyor.

Bunu taklit eden bilim insanları, bir yapay zeka modelinin sinir ağı omurgasının, gerçek öğrenmeden önce rastgele gürültü girdileriyle kısa bir ön eğitimden geçtiği bir sistem geliştirdi.

Araştırmacılara göre bu süreç, yapay zekanın veri öğrenmeye başlamadan önce kendi belirsizliğini ayarlayarak kendisi için bir temel oluşturmasını sağlıyor.

Isınma süreci, yapay zeka modelinin başlangıç ​​güvenini şansa yakın düşük bir seviyeye ayarlamasına ve aşırı güven yanlılığını önemli ölçüde azaltmasını sağlayabilir.

Araştırmacılar, başka bir deyişle yöntemin modellerin önce "Henüz hiçbir şey bilmiyorum" durumunu öğrenmesine yardımcı olduğunu söylüyor.

Araştırmacılar, "Geleneksel modeller, eğitim sırasında karşılaşmadıkları veriler için bile yüksek güvenle yanlış cevaplar verme eğilimindeyken, ısınma eğitimi alan modeller, güvenlerini düşürme ve 'bilmediklerini' tanıma yeteneklerinde belirgin bir iyileşme gösterdi" diye açıkladı.

Bu, yapay zekanın "bildiklerini" "bilmediklerinden" ayırt etme yeteneğini geliştirmesini sağlayabilir.

Nature Machine Intelligence adlı akademik dergide yayımlanan çalışmanın yazarlarından Se-Bum Paik, "Bu çalışma, beyin gelişiminin temel ilkelerini birleştirerek, yapay zekanın kendi bilgi durumunu insanlara daha benzer bir şekilde tanıyabileceğini gösteriyor" dedi.

Bu önemli çünkü yapay zekanın yalnızca doğru cevabı ne sıklıkla verdiğini iyileştirmekle kalmayıp, ne zaman kararsız olduğunu veya yanılmış olabileceğini anlamasını sağlıyor.

Independent Türkçe