Elon Musk, OpenAI'ın tehlikeli bir buluş yaptığından endişeli

Microsoft, yapay zeka şirketinin yönetim kuruluna "gözlemci üye" sokuyor

Musk, OpenAI'ın geliştirdiği ChatGPT'ye karşı kendi yapay zeka botu Grok'u duyurmuştu (Reuters)
Musk, OpenAI'ın geliştirdiği ChatGPT'ye karşı kendi yapay zeka botu Grok'u duyurmuştu (Reuters)
TT

Elon Musk, OpenAI'ın tehlikeli bir buluş yaptığından endişeli

Musk, OpenAI'ın geliştirdiği ChatGPT'ye karşı kendi yapay zeka botu Grok'u duyurmuştu (Reuters)
Musk, OpenAI'ın geliştirdiği ChatGPT'ye karşı kendi yapay zeka botu Grok'u duyurmuştu (Reuters)

Tesla ve SpaceX CEO'su Elon Musk, OpenAI'da yaşanan krizle ilgili endişelerini yeniden dile getirdi.

Milyarder, yapay zeka firmasının "tehlikeli bir icat" yapmış olmasından şüpheleniyor.

Dünyanın önde gelen yapay zeka şirketlerinden OpenAI'ın kurucu ortağı Sam Altman'ın yönetim kurulu tarafından kovulmasıyla başlayan kaos, 5 gün sonra iş insanının CEO olarak görevine yeniden dönmesiyle durulmuş gibi görünüyor.

Ancak Altman'ın neden kovulduğuyla ilgili soru işaretleri halen mevcut. Bu konuda çeşitli teorilerini dile getiren Musk ise içeriden bir bilgi edinemediğini savunuyor.

Bu 5 günlük kaosun kendisini endişelendirdiğini dile getiren Musk, çarşamba günü New York Times'ın 2023 DealBook Zirvesi'nde yaptığı açıklamada Yüzüklerin Efendisi (The Lord of the Rings) serisine atıf yaptı:

Sam'e dair karışık hislerim var. Güç yüzüğü onu yozlaştırabilir.

Musk ayrıca, OpenAI kurucu ortağı ve baş bilim insanı Ilya Sutskever'ın neden Altman'a savaş açtığıyla ilgili soru işaretlerini dile getirdi:

Bu ciddi bir şey gibi görünüyor. Önemsiz olduğunu düşünmüyorum ve yapay zekanın bazı tehlikeli unsurlarını keşfetmiş olabileceklerinden endişeliyim.

Sutskever, başlangıçta Altman'ın görevden alınması yönünde oy kullanan yönetim kurulu üyelerinden biriydi. Ancak daha sonra bu konuda geri adım atmış ve pişman olduğunu söylemişti.

Öte yandan Musk, Sutskever'ın "güçlü bir ahlaki pusulaya" sahip olduğuna inanıyor. "Neyin doğru olduğunu düşünürken gerçekten ter döküyor" diyen milyarder, şöyle ekledi:

Eğer Ilya, Sam'i kovmayı isteyecek kadar güçlü hisler beslediyse dünyanın bu gerekçeyi öğrenmeye hakkı var.

Yapay zekanın risklerine dikkat çeken ve fikre mesafeli yaklaşanların "felaket tellalları" diye nitelendirdiği isimler arasında Musk da var.

Milyarder, Altman'ın kovulmasıyla ilgili önceki bir paylaşımında, "Ilya bu kararı verdiyse muhakkak önemli bir nedeni vardır" demişti. Musk ayrıca, ChatGPT benzeri programların geliştirilmesini güvenlik önlemlerinin alınabilmesi için 6 aylığına duraklatmayı talep eden bir mektubun da imzacısıydı.

Sürecin kazananı: Microsoft

Diğer yandan milyarder, OpenAI'ın giderek Microsoft himayesine geçtiğini de savunuyor.

Microsoft, 13 milyar dolarla yapay zeka firmasının en büyük yatırımcısı konumunda. Öte yandan şirketin Altman'ın kovulmasından son dakikada haberi olmuştu. Bu da yönetim kuruluyla yatırımcı arasındaki gerilimi süreç boyunca besledi ve Altman'ın "Microsoft'un adamı" olarak görülmesine sebebiyet verdi.

Teknoloji devi, Altman kovulduğunda en güçlü müttefiklerinden birini kaybetmemek için şirket üzerinde baskı kurmak üzere harekete geçmişti. Microsoft'un CEO'su Satya Nadella, Altman ve ekibine iş teklif etmişti.

Microsoft, yönetim kurulunda gözlemci üyesiyle yer aldı

Teknoloji devinden çarşamba günü yapılan açıklamada Microsoft'un OpenAI'a oy hakkı olmayan bir yönetim kurulu üyesi soktuğu bildirildi.

Öte yandan Microsoft yetkilileri, yapay zeka şirketinin yönetim kurulu toplantılarına katılacak kişinin kimliğini açıklamayı reddediyor.

Altman'ın dönüşüyle birlikte Salesforce'un eski CEO'su Bret Taylor, eski Hazine Bakanı Larry Summers ve Quora CEO'su Adam D'Angelo'nun da aralarında yer aldığı bir yönetim kurulunun oluşturulacağı öğrenilmişti.

2021'den beri OpenAI yönetim kurulu üyesi olan Helen Toner da dün görevinden istifa etti. Toner, X'te (eski adıyla Twitter) paylaştığı gönderide şunları yazdı:

Açık konuşmak gerekirse kararımız, yönetim kurulunun şirketi etkin biçimde denetleme yeteneğiyle ilgiliydi. Bu bizim rolümüz ve sorumluluğumuzdu. Her ne kadar spekülasyonlar olsa da OpenAI'ın çalışmasını yavaşlatma isteği duymadık.

Altman ise yine X'teki bir gönderisinde şunları yazdı:

Şirketin ve misyonun çıkarları her zaman önce gelir. Yönetim kurulu üyeleriyle aramda gerçek yanlış anlamalar olduğu açık. Benim açımdan, bu deneyimden bir şeyler öğrenmek ve şirket olarak ilerlerken bu öğrendiklerimizi uygulamak son derece önemli.

Independent Türkçe



Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır
TT

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekânın insan beyni üzerindeki uzun vadeli etkilerinin henüz bilinmediği yönündeki uyarılar sürerken, yeni bir araştırma kısa vadeli kullanımın bile bilişsel performansı olumsuz etkileyebileceğini ortaya koydu. Araştırmaya göre yalnızca 10 dakikalık yapay zekâ kullanımı, bireylerin problem çözme performansında düşüşe yol açabiliyor.

Dört üniversiteden ortak araştırma

Carnegie Mellon University, University of Oxford, Massachusetts Institute of Technology ve University of California, Los Angeles araştırmacıları tarafından yürütülen çalışmada, katılımcılardan kesirli işlemlere dayalı matematik sorularını çözmeleri istendi.

Katılımcıların bir kısmı soruları kendi başına çözerken, diğer gruba “GPT-5” tabanlı bir yapay zekâ asistanı kullanma imkânı tanındı. Ancak deneyin son üç sorusunda bu yapay zekâ desteği aniden kesildi.

Yapay zekâ desteği ilk etapta başarıyı artırdı

Deneyin büyük bölümünde yapay zekâ kullanan grubun doğru çözüm oranı kontrol grubundan daha yüksek çıktı. Ancak destek kesildiğinde bu grubun performansı sert şekilde geriledi.

Araştırmaya göre yapay zekâ desteği kaldırıldıktan sonra, destek alan grubun soru çözme başarısı kontrol grubuna kıyasla yaklaşık yüzde 20 düştü.

Ayrıca yapay zekâ kullanan katılımcıların, destek kesildikten sonra soruları boş bırakma oranının da belirgin biçimde arttığı görüldü. Bu grubun soruları atlama oranı kontrol grubunun yaklaşık iki katına ulaştı.

10 dakikalık kullanım bile etkili olabilir

Araştırmacılar, katılımcıların yapay zekâya yalnızca yaklaşık 10 dakika erişebildiğine dikkat çekerek, kısa süreli kullanımın bile bireylerin kendi problem çözme becerilerine duyduğu güveni azaltabileceğini ifade etti.

Benzer yöntemle gerçekleştirilen ikinci deneyde ise bu kez matematik yerine okuduğunu anlama becerileri test edildi. Sonuçların büyük ölçüde benzer olduğu, ancak yapay zekâ kullanımının deneyin ilk bölümünde belirgin bir avantaj sağlamadığı kaydedildi.

Kullanım biçimi belirleyici oldu

Araştırmada dikkat çeken bir diğer unsur ise kullanıcıların yapay zekâyı hangi amaçla kullandığının sonuçları doğrudan etkilemesi oldu.

Doğrudan cevap isteyen katılımcıların performans kaybı ve soru atlama oranı daha yüksek çıktı. Katılımcıların yüzde 61’i yapay zekâdan doğrudan çözüm talep ettiğini belirtti.

Buna karşılık yalnızca ipucu veya açıklama isteyen katılımcılarda benzer bir performans düşüşü gözlenmedi. Bu grubun sonuçları kontrol grubuyla benzer seviyede kaldı.

Araştırmacılar, bu bulgunun tüm yapay zekâ kullanım biçimlerinin bilişsel açıdan zararlı olmadığını gösterdiğini vurguladı. Çalışmaya göre asıl risk, bireyin düşünme sürecini tamamen yapay zekâya devretmesi.

Önceki çalışmalarla benzer sonuçlar

Araştırma, yapay zekâ kullanımının bilişsel gerilemeyle ilişkili olabileceğini öne süren önceki çalışmalarla da paralellik gösteriyor.

Daha önce Massachusetts Institute of Technology tarafından yürütülen ve makale yazımı sırasında beyin aktivitesini inceleyen bir araştırmada, bağımsız çalışan yazarların beyin bağlantılarının, büyük dil modellerini kullanan yazarlara göre daha güçlü olduğu tespit edilmişti.

Ayrıca bilişsel emek ve tıp gibi alanlarda yapılan başka çalışmalarda da görevlerini yapay zekâ desteğiyle yerine getiren kişilerin, destek olmadan aynı görevleri gerçekleştirmekte daha fazla zorlandığı belirtilmişti.

Araştırmanın sonuç bölümünde bilim insanları şu değerlendirmeye yer verdi:

“Bulgularımız, günlük yapay zekâ kullanımının insanın azmi ve mantıksal düşünme becerileri üzerindeki birikimli etkilerine dair acil sorular doğuruyor.”

Araştırmacılar ayrıca şu uyarıda bulundu:

“Bu etkiler sürekli yapay zekâ kullanımıyla zaman içinde birikirse, kısa vadeli yardım sağlamak üzere tasarlanan mevcut yapay zekâ sistemleri, desteklemeyi amaçladıkları insan becerilerini zayıflatma riski taşıyabilir.”

Kaynak: Fast Company dergisi.


Yapay zeka "Bilmiyorum" demeyi öğrendi

Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
TT

Yapay zeka "Bilmiyorum" demeyi öğrendi

Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)

Güney Koreli araştırmacılar, yapay zeka modellerinin nihayet, belirli konulara aşina olmadıklarını insan davranışına benzer şekilde kabul etmelerini sağlayacak yeni bir yöntem geliştirdi.

Kore İleri Bilim ve Teknoloji Enstitüsü'nden araştırmacılar, bu atılımın otonom sürüş ve tıp gibi alanlarda kullanılan yapay zeka modellerinin güvenilirliğini artırabileceğini söylüyor.

Önceki araştırmalar, özellikle tıbbi teşhis gibi alanlarda, bu araçların karar alma süreçlerinde kullanılmasının en büyük risklerinden birinin yapay zekanın "aşırı özgüveni" olduğunu ortaya koymuştu.

OpenAI'ın ChatGPT'si gibi yaygın kullanılan yapay zeka modellerinin, bilmediklerini kabul etmek yerine tahmin yapmaya teşvik edildikleri için "halüsinasyon gördükleri", yani bilgi uydurdukları gösterilmişti.

Şimdiyse araştırmacılar, yapay zekanın aşina olmadığı veya daha önce karşılaşmadığı bilgilerin farkında olmasını sağlayan ve sohbet robotlarının genel güvenilirliğini artıran bir yöntem geliştirdi.

Araştırmacılar, yapay zekada aşırı özgüvenin temel nedeninin, omurga altyapısını oluşturan yapay sinir ağlarını kullanarak ilk verilerden öğrenme biçimi olduğunu söylüyor.

Bu aşamada ortaya çıkan küçük hatalar, düzeltilmezse yayılabiliyor ve sonraki eğitim sırasında önemli hatalara neden olabiliyor.

Araştırmacılar, başlatma aşamasında bir sinir ağına rastgele veri girildiğinde, modelin hiçbir şey öğrenmemiş olmasına rağmen yüksek bir güven sergilediğini buldu.

Bu durum "halüsinasyona" yol açtı.

Bunu ele almak için araştırmacılar, insan beyninin sorunu çözme biçiminden ipuçları kullandıklarını söylüyor.

İnsanlarda beyin sinyalleri doğumdan önce bile dış uyaran olmaksızın üretiliyor, bu da sorunun üstesinden gelmeye yardımcı oluyor.

Bunu taklit eden bilim insanları, bir yapay zeka modelinin sinir ağı omurgasının, gerçek öğrenmeden önce rastgele gürültü girdileriyle kısa bir ön eğitimden geçtiği bir sistem geliştirdi.

Araştırmacılara göre bu süreç, yapay zekanın veri öğrenmeye başlamadan önce kendi belirsizliğini ayarlayarak kendisi için bir temel oluşturmasını sağlıyor.

Isınma süreci, yapay zeka modelinin başlangıç ​​güvenini şansa yakın düşük bir seviyeye ayarlamasına ve aşırı güven yanlılığını önemli ölçüde azaltmasını sağlayabilir.

Araştırmacılar, başka bir deyişle yöntemin modellerin önce "Henüz hiçbir şey bilmiyorum" durumunu öğrenmesine yardımcı olduğunu söylüyor.

Araştırmacılar, "Geleneksel modeller, eğitim sırasında karşılaşmadıkları veriler için bile yüksek güvenle yanlış cevaplar verme eğilimindeyken, ısınma eğitimi alan modeller, güvenlerini düşürme ve 'bilmediklerini' tanıma yeteneklerinde belirgin bir iyileşme gösterdi" diye açıkladı.

Bu, yapay zekanın "bildiklerini" "bilmediklerinden" ayırt etme yeteneğini geliştirmesini sağlayabilir.

Nature Machine Intelligence adlı akademik dergide yayımlanan çalışmanın yazarlarından Se-Bum Paik, "Bu çalışma, beyin gelişiminin temel ilkelerini birleştirerek, yapay zekanın kendi bilgi durumunu insanlara daha benzer bir şekilde tanıyabileceğini gösteriyor" dedi.

Bu önemli çünkü yapay zekanın yalnızca doğru cevabı ne sıklıkla verdiğini iyileştirmekle kalmayıp, ne zaman kararsız olduğunu veya yanılmış olabileceğini anlamasını sağlıyor.

Independent Türkçe


Ödül olmadan video oyunu oynayan maymunlar bilim insanlarını şoke etti

Japon makakları (AFP/Temsili)
Japon makakları (AFP/Temsili)
TT

Ödül olmadan video oyunu oynayan maymunlar bilim insanlarını şoke etti

Japon makakları (AFP/Temsili)
Japon makakları (AFP/Temsili)

Vishwam Sankaran Bilim ve Teknoloji Muhabiri 

Yeni bir araştırma kapsamında maymunların herhangi bir yiyecek ödülü olmadan, tamamen meraktan kendi istekleriyle dokunmatik ekranlı bir video oyununu uzun süre oynaması bilim insanlarını şaşkına çevirdi.

Araştırmacılara göre bulgular, merakın hayvan davranışını nasıl yönlendirdiğinin daha iyi anlaşılmasına yol açabilir.

Yiyecek veya çiftleşme fırsatları gibi dışsal ödüllerden bağımsız olarak işleyen merak duygusu, hayvanları çevrelerini keşfetmeye yönlendirir.

Ancak bir hayvanın çevresinin hangi kısımlarının diğerlerine göre daha fazla merak uyandırdığı tam olarak bilinmiyor.

Araştırmacılar, merakın aşırı basit veya karmaşık durumlardan kaçınırken, orta derecede karmaşık veya belirsiz uyaranlara yönelme eğiliminde olduğu varsayımında bulunuyor.

"Goldilocks ilkesi" denen bu kavram, insan merakını de şekillendiriyor.

Ancak hayvanlarda bu dürtüyü inceleyen çok az çalışma var.
 

Video oyunu oynayan maymun (KyotoU/Sakumi İki)​​​​​​​Video oyunu oynayan maymun (KyotoU/Sakumi İki)

Japonya'daki Kyoto Üniversitesi'nden bilim insanları, maymunlara dokunmatik ekranlı bir video oyunu vererek merakın nasıl işlediğini inceledi.

Video oyunları, insanların bilişsel yeteneklerini geliştirmesine ve yaşam kalitelerini artırmasına fayda sağlayan araçlar olarak son yıllarda öne çıkıyor.

Video oyunlarının laboratuvar ve hayvanat bahçelerindeki hayvanların ilgisini çekip çekemeyeceğini ve onların sağlık ve huzurunu iyileştirmeye yardımcı olup olamayacağını araştıran çalışmalar da yapılıyor.

Hakemli dergi iScience'ta yayımlanan çalışmanın yazarlarından Sakumi Iki, "Başlangıçta vahşi maymunların oyun davranışlarını inceliyordum, bu yüzden laboratuvardaki maymunlarda oyun davranışının doğal bir şekilde ortaya çıkabileceği durumlar yaratmayı uzun zamandır istiyordum" diye açıklıyor.

Araştırmacılar, bölgedeki Japon makaklarının merakını tam olarak ne tür uyaranların tetikleyebileceğini araştırdı.

Saklambaçtan esinlenerek dokunmatik ekran tabanlı bir oyun görevi geliştirdiler.

Bu oyunda maymun dokunmatik ekrandaki bir düğmeye bastığında, düğmeye bağlı olarak ekranın farklı bir yerinde bir kukla beliriyor.

Kuklanın ortaya çıkışı farklı gürültü seviyelerine göre değişirken, gürültü seviyesi yükseldikçe kukla daha zor tahmin edilen bir yerde görünüyor.

Bilim insanları maymunların orta ve düşük gürültüye, ardından orta ve yüksek gürültüye verdikleri tepkileri gözlemledi.

Maymunların, kuklanın biraz tahmin edilebilir ama yine de orta derecede belirsiz bir yerde belirmesini sağlayan orta gürültü düğmesini seçtiğini gördüler.

Bu da makakların tıpkı insanlar gibi, çok basit veya çok rastgele uyaranlara kıyasla, orta düzeyde belirsizliğe sahip uyaranları etkin bir şekilde keşfetme eğilimi gösterdiğine işaret ediyor.

Ayrıca maymunların oyunu oynamaya uzun süreler harcaması, oyunun meraklarını uyandırmada başarılı olduğu fikrini destekliyor.

Dr. Iki "Tipik bilişsel görevlerde maymunların motivasyonunu yüksek tutmak için genellikle onlara yiyecek ödülleri verilir; bu yüzden ödül olmadan oyuna ilgi göstereceklerinden pek emin değildim" diyor. 

Ancak şaşırtıcı bir şekilde, bazı maymunlar hiçbir ödül olmamasına rağmen bu oyunda neredeyse 100 deneme boyunca çalıştı.

Araştırmacılar gelecekteki çalışmalarda bu bulguları kullanarak maymunların merakını uyandıran daha fazla oyun geliştirmeyi umuyor.

Merakın arkasındaki sinirsel ve bilişsel mekanizmaları belirleyerek "bu olguyu daha kapsamlı bir şekilde anlamayı" hedefliyorlar.

Independent Türkçe,independent.co.uk/news