4 soruda OpenAI'ın "düşünebilen" yeni yapay zeka serisi

OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
TT

4 soruda OpenAI'ın "düşünebilen" yeni yapay zeka serisi

OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)

OpenAI, "düşünme" becerisine sahip olduğunu öne sürdüğü yeni yapay zeka serisi o1'i dün (12 Eylül Perşembe) kullanıma sundu. 

Strawberry diye de bilinen yeni serinin o1-preview (ön izleme) ve o1-mini diye iki sürümü mevcut.

Model henüz sadece ChatGPT Plus ve Team kullanıcılarının yanı sıra 5. seviye API katmanına hak kazanan geliştiricilerin erişimine peyderpey açılıyor.

ChatGPT Enterprise ve Edu üyelerinin de gelecek haftadan itibaren araca erişebileceğini belirten şirket, ileride o1-miniyi bütün kullanıcılara ücretsiz sunmayı planlıyor. Fakat bunun için henüz bir tarih verilmedi.

Daha önceki modellerine 2,3,4 gibi isimler veren OpenAI, son serinin yepyeni becerilere sahip olması nedeniyle "sayacı sıfırladıklarını" ve bu nedenle o1 adını seçtiklerini belirtiyor.

Tabii bütün bunların bir bedeli var. Kullanımı mayısta çıkan öncülü GPT-4o'dan üç kat daha masraflı olan o1-preview'un geliştiricilere maliyeti 1 milyon girdi jetonu (token) başına 15 dolar, 1 milyon çıktı jetonu başına da 60 dolar.

Veri birimlerini ifade eden jetonlar, yapay zeka araçlarının büyük verileri parçalara ayırıp dili işlemesini sağlıyor. 1 milyon jeton yaklaşık 750 bin kelimeye denk geliyor. 

OpenAI, o1-mini versiyonun yüzde 80 daha ucuz olduğunu belirtiyor fakat bu sürüm diğeri kadar geniş bir bilgi yelpazesine sahip değil. 

Peki şirketin ön izleme veya bir ön sürüm olduğunu belirttiği o1, öncüllerinden farklı olarak neyi yapabiliyor, neyi yapamıyor ve insanlığın kendi bilişsel seviyesini geçen yapay zeka inşa etme çabasında nasıl bir adıma işaret ediyor?

1) Gerçekten düşünebiliyor mu?

Teknoloji sektöründeki en temel tartışmalardan biri, yapay zeka araçlarının becerilerini "düşünme" veya "muhakeme" gibi ifadelerle tanımlama etrafında dönüyor. 

Geniş dil modellerinin, devasa büyüklükte bilgi kümeleriyle eğitildiği ve sorgulara verdikleri cevaplarda bu veriler üzerinden olasılık temelli tahmin yürüttükleri göz önüne alınırsa, bazı uzmanların "düşünme" ifadesine itirazlarında haklılık payı var. 

Öte yandan bu araçlar insan beyni gibi akıl yürütme becerisine gittikçe daha fazla yaklaşıyor. 

OpenAI, o1 serisinin sorulara cevap vermeden önce daha uzun süre düşündüğünü ve vereceği yanıtların doğruluğunu kontrol ettiğini ifade ediyor.

Sisteme girilen soru karşısında "Düşünüyorum" gibi yanıtlar vermesi, gerçekten o sırada düşündüğü izlenimi yaratsa da o1'in insanlar gibi akıl yürüttüğünü söylemek mümkün değil. 

OpenAI'ın araştırma ekibinin lideri Jerry Tworek, yapay zeka modelinin düşünme biçimini insanlarınkiyle bir tutmadıklarını söylüyor. 

Arayüz ise yeni modelin problemleri çözerken daha fazla zaman harcadığını ve daha derine indiğini gösterme amacıyla bu şekilde tasarlanmış.

o1'i önceki OpenAI uygulamalarından ayıran temel özelliğiyse eğitilme biçiminde yatıyor. 

Eğitim bilimci ve öğretmenlerin aşina olabileceği pekiştirmeli öğrenme denen bu yöntem, doğru yanıtlar karşısında ödül, yanlış cevaplar karşısında da ceza verilmesi ilkesine dayanıyor.

Bu sayede deneme yanılmayla ilerleyen yapay zeka aracının, doğru yanıtlara ulaşma becerisi gelişiyor. Sorguları işlerken, insanların sorunları adım adım inceleyerek çözmesine benzer bir "düşünce zinciri" kullanıyor.

OpenAI, aracı "düşünmeye" iten bu yöntemin, doğruluğunu artırdığını ifade ediyor. 

2) Hangi alanlarda kullanılacak?

Karmaşık muhakeme görevlerinde kayda değer bir ilerlemeye ve yeni bir yapay zeka yeteneği seviyesine işaret ediyor. Bu nedenle sayacı tekrar 1'e sıfırlıyor ve bu seriye OpenAI o1 adını veriyoruz.

OpenAI'ın bu ifadelerle tanıttığı o1'in, dil becerilerinden ziyade bilimsel çalışmalar, veri işleme ve kodlamada daha iyi bir performans sergilemesi bekleniyor. Ayrıca o1-mini, daha küçük bir sürüm olmasına karşın özellikle kod üretmesi amacıyla geliştirildi. 

Yeni model kodlama ve matematikte sonuca ulaşma sürecini detaylandırdığı için bu alanlarda öğretmenlik yapma becerisinin önceki versiyonlardan daha iyi olması bekleniyor. 

Şirketin baş araştırma görevlisi Bob McGrew, yeni modelin ileri seviye matematik sorularında kendisinden daha iyi olduğunu belirterek kendisinin üniversitede matematik okuduğunu ekliyor.

OpenAI yeni modelin ayrıca bilim insanlarının hücre dizileme çalışmalarına ve fizikçilerin karmaşık matematiksel formüller üretmesine katkı sağlayacağını ifade ediyor. 

Ayrıca yapılan testlerde fizik, kimya ve biyolojinin bazı alanlarında doktora öğrencileriyle yarıştığı kaydedildi.

Şirketin baş bilim insanı Dr. Jakub Pachocki ve OpenAI teknik çalışanı Szymon Sido, New York Times'a yaptıkları sunumda, sohbet botunun çengel bulmacadan çok daha karmaşık akrostiş bulmacasını çözdüğü görüldü.

Yapay zeka aracı aynı zamanda doktora düzeyinde bir kimya sorusunu yanıtladı ve bir hastanın semptomları ve geçmişi hakkında ayrıntılı bir rapora dayanarak hastalığı teşhis etti.

3) GPT-4o'dan daha mı iyi?

Daha önceki modeller internetteki bilgilerle eğitildiği ve internette epey yanlış bilgi olduğu için hata yapma ihtimalleri artıyor. o1'in eğitilme biçimiyse bu hataları çok daha düşük seviyeye indirmesini sağlıyor. 

Yeni modelin; ses, görüntü ve yazıyla iletişim kuran GPT-4o'dan çok daha iyi performans gösterdiği alanlar olsa da bazı konularda gerisinde kalıyor. 

İki aracı da lise seviyesindeki Uluslararası Matematik Olimpiyatı'na sokan OpenAI, o1'in soruların yüzde 83'ünü, GPT-4o'nun ise sadece yüzde 13'ünü doğru çözdüğünü ifade ediyor. 

Thomson Reuters'tan yeni modeli test eden Pablo Arredondo, TechCrunch'a yaptığı açıklamada yasal belgeleri analiz etme ve hukuk fakültesine giriş sınavında da daha başarılı olduğunu söylüyor.

Strawberry takma adına sahip o1'in GPT-4o'yu geride bıraktığı bir diğer alan ise "strawberry" (çilek) kelimesinde kaç tane "r" harfi olduğunu bulmak.

Bu soruya "iki" yanıtını veren ChatGPT'nin önceki sürümleri internette alay konusu olmuştu. 

İlk başta çok zor bir görev gibi görünmese de yapay zeka araçları kelimeleri harf harf değil, jetonlar şeklinde işlediği için bu tip basit işlerde zorlanabiliyorlar. 

Ancak o1, daha detaylı düşünmesi ve kendisini kontrol etmesinden dolayı bu soruya doğru yanıtı vermeyi başardı. 

Öte yandan yeni model, internette arama yapma, metin ve görsel işleme gibi özelliklere henüz sahip değil. Ayrıca gerçek dünya hakkında GPT-4o kadar bilgisi de yok. 

Pennsylvania Üniversitesi Wharton İşletme Okulu'nda yapay zeka üzerine çalışan Ethan Mollick "Açıkçası o1-preview her şeyde daha iyi değil. Örneğin GPT-4o'dan daha iyi bir yazar değil" diyerek ekliyor: 

Ancak planlama gerektiren görevlerde ciddi değişiklikler sözkonusu.

OpenAI, yeni modelinde halüsinasyon sorununu da çözmeyi henüz başaramadı. Yapay zeka sohbet botlarının bazı bilgileri "uydurmasını" ifade eden halüsinasyon, bu araçların temel sorunu olmaya devam ediyor.

Modeli test eden Mollick, zorlu bir bulmacayı çözdüğünü ancak ipuçlarından birini uydurduğunu söylüyor. 

Yine de Tworek, "Bu modelin daha az halüsinasyon gördüğünü fark ettik" diyerek ekliyor: 

Ancak sorun hâlâ devam ediyor. Halüsinasyonları çözdüğümüzü söyleyemeyiz.

Son modelin bir diğer eksikliği de sorgulara yavaş cevap vermesi. Diğer sürümler neredeyse anında yanıtı sunarken, muhtemelen düşünme süresinden dolayı o1'in cevap vermesi çok daha uzun zaman alıyor.

Örneğin Mollick, bulmacayı çözmesinin 108 saniye sürdüğünü ifade ediyor.

OpenAI modelin ön izleme versiyonu olduğunu belirtirken, uzmanlar o1'in sonraki versiyonlarının hızlanmasını umuyor. 

4) İnsanlığa tehdit oluşturabilir mi?

Bazı yapay zeka araçları eğitimleri sırasında farklı kelimelerin beraber kullanılma sıklıklarını analiz ederek sözcüklerin birbirine yakınlığını tahmin ediyor. Örneğin "kedi" ve "köpek" kelimeleri birlikte daha sık kullanıldığı için yakın anlamlara sahip olmaları gerektiği sonucuna varıyor.

Bu modellerin "yapay zeka" ve "tehdit" ifadeleri arasında da böyle bir ilişki kurmuş olması muhtemel. 

Her yeni modelin piyasa sürülmesiyle akla gelen ilk sorulardan biri insanlığa varoluşsal bir tehdit yaratıp yaratmayacağı.

Sektörün önde gelen bazı isimleri bu tehlikeye karşı uyarırken bazı uzmanlar yapay zeka araçlarının nasıl kullanıldığının daha önemli olduğunu vurguluyor.

OpenAI'ın son sürümüyle bu araçların insan gibi düşünme becerisine bir adım daha yaklaşması da endişeleri artırabilir.

Ancak bu yazıdan da anlaşılabileceği üzere, o1'in becerileri henüz korkutucu bir düzeyin yakınından bile geçmiyor. 

Ars Technica'nın ifade ettiği gibi bir bulmacadaki 8 ipucunu çözmesi 108 saniye süren ve bir cevapta halüsinasyon gören bir yapay zeka modelinin potansiyel tehlike olduğunu söylemek abartıya kaçar. 

Öte yandan OpenAI'ın yanı sıra Meta ve Google gibi şirketlerin de çabaları ve son yıllardaki hızlı gelişmeler göz önüne alınırsa, insan seviyesine ulaşan yapay zeka araçları çok uzak olmayabilir.

Independent Türkçe, TechCrunch, Verge, Ars Technica, New York Times, OpenAI



Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır
TT

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekayı sadece 10 dakika kullanmak bile zihinsel performansı zayıflatır

Yapay zekânın insan beyni üzerindeki uzun vadeli etkilerinin henüz bilinmediği yönündeki uyarılar sürerken, yeni bir araştırma kısa vadeli kullanımın bile bilişsel performansı olumsuz etkileyebileceğini ortaya koydu. Araştırmaya göre yalnızca 10 dakikalık yapay zekâ kullanımı, bireylerin problem çözme performansında düşüşe yol açabiliyor.

Dört üniversiteden ortak araştırma

Carnegie Mellon University, University of Oxford, Massachusetts Institute of Technology ve University of California, Los Angeles araştırmacıları tarafından yürütülen çalışmada, katılımcılardan kesirli işlemlere dayalı matematik sorularını çözmeleri istendi.

Katılımcıların bir kısmı soruları kendi başına çözerken, diğer gruba “GPT-5” tabanlı bir yapay zekâ asistanı kullanma imkânı tanındı. Ancak deneyin son üç sorusunda bu yapay zekâ desteği aniden kesildi.

Yapay zekâ desteği ilk etapta başarıyı artırdı

Deneyin büyük bölümünde yapay zekâ kullanan grubun doğru çözüm oranı kontrol grubundan daha yüksek çıktı. Ancak destek kesildiğinde bu grubun performansı sert şekilde geriledi.

Araştırmaya göre yapay zekâ desteği kaldırıldıktan sonra, destek alan grubun soru çözme başarısı kontrol grubuna kıyasla yaklaşık yüzde 20 düştü.

Ayrıca yapay zekâ kullanan katılımcıların, destek kesildikten sonra soruları boş bırakma oranının da belirgin biçimde arttığı görüldü. Bu grubun soruları atlama oranı kontrol grubunun yaklaşık iki katına ulaştı.

10 dakikalık kullanım bile etkili olabilir

Araştırmacılar, katılımcıların yapay zekâya yalnızca yaklaşık 10 dakika erişebildiğine dikkat çekerek, kısa süreli kullanımın bile bireylerin kendi problem çözme becerilerine duyduğu güveni azaltabileceğini ifade etti.

Benzer yöntemle gerçekleştirilen ikinci deneyde ise bu kez matematik yerine okuduğunu anlama becerileri test edildi. Sonuçların büyük ölçüde benzer olduğu, ancak yapay zekâ kullanımının deneyin ilk bölümünde belirgin bir avantaj sağlamadığı kaydedildi.

Kullanım biçimi belirleyici oldu

Araştırmada dikkat çeken bir diğer unsur ise kullanıcıların yapay zekâyı hangi amaçla kullandığının sonuçları doğrudan etkilemesi oldu.

Doğrudan cevap isteyen katılımcıların performans kaybı ve soru atlama oranı daha yüksek çıktı. Katılımcıların yüzde 61’i yapay zekâdan doğrudan çözüm talep ettiğini belirtti.

Buna karşılık yalnızca ipucu veya açıklama isteyen katılımcılarda benzer bir performans düşüşü gözlenmedi. Bu grubun sonuçları kontrol grubuyla benzer seviyede kaldı.

Araştırmacılar, bu bulgunun tüm yapay zekâ kullanım biçimlerinin bilişsel açıdan zararlı olmadığını gösterdiğini vurguladı. Çalışmaya göre asıl risk, bireyin düşünme sürecini tamamen yapay zekâya devretmesi.

Önceki çalışmalarla benzer sonuçlar

Araştırma, yapay zekâ kullanımının bilişsel gerilemeyle ilişkili olabileceğini öne süren önceki çalışmalarla da paralellik gösteriyor.

Daha önce Massachusetts Institute of Technology tarafından yürütülen ve makale yazımı sırasında beyin aktivitesini inceleyen bir araştırmada, bağımsız çalışan yazarların beyin bağlantılarının, büyük dil modellerini kullanan yazarlara göre daha güçlü olduğu tespit edilmişti.

Ayrıca bilişsel emek ve tıp gibi alanlarda yapılan başka çalışmalarda da görevlerini yapay zekâ desteğiyle yerine getiren kişilerin, destek olmadan aynı görevleri gerçekleştirmekte daha fazla zorlandığı belirtilmişti.

Araştırmanın sonuç bölümünde bilim insanları şu değerlendirmeye yer verdi:

“Bulgularımız, günlük yapay zekâ kullanımının insanın azmi ve mantıksal düşünme becerileri üzerindeki birikimli etkilerine dair acil sorular doğuruyor.”

Araştırmacılar ayrıca şu uyarıda bulundu:

“Bu etkiler sürekli yapay zekâ kullanımıyla zaman içinde birikirse, kısa vadeli yardım sağlamak üzere tasarlanan mevcut yapay zekâ sistemleri, desteklemeyi amaçladıkları insan becerilerini zayıflatma riski taşıyabilir.”

Kaynak: Fast Company dergisi.


Yapay zeka "Bilmiyorum" demeyi öğrendi

Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
TT

Yapay zeka "Bilmiyorum" demeyi öğrendi

Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)
Telefon ekranında gösterilen Grok, DeepSeek ve ChatGPT uygulamaları (AFP)

Güney Koreli araştırmacılar, yapay zeka modellerinin nihayet, belirli konulara aşina olmadıklarını insan davranışına benzer şekilde kabul etmelerini sağlayacak yeni bir yöntem geliştirdi.

Kore İleri Bilim ve Teknoloji Enstitüsü'nden araştırmacılar, bu atılımın otonom sürüş ve tıp gibi alanlarda kullanılan yapay zeka modellerinin güvenilirliğini artırabileceğini söylüyor.

Önceki araştırmalar, özellikle tıbbi teşhis gibi alanlarda, bu araçların karar alma süreçlerinde kullanılmasının en büyük risklerinden birinin yapay zekanın "aşırı özgüveni" olduğunu ortaya koymuştu.

OpenAI'ın ChatGPT'si gibi yaygın kullanılan yapay zeka modellerinin, bilmediklerini kabul etmek yerine tahmin yapmaya teşvik edildikleri için "halüsinasyon gördükleri", yani bilgi uydurdukları gösterilmişti.

Şimdiyse araştırmacılar, yapay zekanın aşina olmadığı veya daha önce karşılaşmadığı bilgilerin farkında olmasını sağlayan ve sohbet robotlarının genel güvenilirliğini artıran bir yöntem geliştirdi.

Araştırmacılar, yapay zekada aşırı özgüvenin temel nedeninin, omurga altyapısını oluşturan yapay sinir ağlarını kullanarak ilk verilerden öğrenme biçimi olduğunu söylüyor.

Bu aşamada ortaya çıkan küçük hatalar, düzeltilmezse yayılabiliyor ve sonraki eğitim sırasında önemli hatalara neden olabiliyor.

Araştırmacılar, başlatma aşamasında bir sinir ağına rastgele veri girildiğinde, modelin hiçbir şey öğrenmemiş olmasına rağmen yüksek bir güven sergilediğini buldu.

Bu durum "halüsinasyona" yol açtı.

Bunu ele almak için araştırmacılar, insan beyninin sorunu çözme biçiminden ipuçları kullandıklarını söylüyor.

İnsanlarda beyin sinyalleri doğumdan önce bile dış uyaran olmaksızın üretiliyor, bu da sorunun üstesinden gelmeye yardımcı oluyor.

Bunu taklit eden bilim insanları, bir yapay zeka modelinin sinir ağı omurgasının, gerçek öğrenmeden önce rastgele gürültü girdileriyle kısa bir ön eğitimden geçtiği bir sistem geliştirdi.

Araştırmacılara göre bu süreç, yapay zekanın veri öğrenmeye başlamadan önce kendi belirsizliğini ayarlayarak kendisi için bir temel oluşturmasını sağlıyor.

Isınma süreci, yapay zeka modelinin başlangıç ​​güvenini şansa yakın düşük bir seviyeye ayarlamasına ve aşırı güven yanlılığını önemli ölçüde azaltmasını sağlayabilir.

Araştırmacılar, başka bir deyişle yöntemin modellerin önce "Henüz hiçbir şey bilmiyorum" durumunu öğrenmesine yardımcı olduğunu söylüyor.

Araştırmacılar, "Geleneksel modeller, eğitim sırasında karşılaşmadıkları veriler için bile yüksek güvenle yanlış cevaplar verme eğilimindeyken, ısınma eğitimi alan modeller, güvenlerini düşürme ve 'bilmediklerini' tanıma yeteneklerinde belirgin bir iyileşme gösterdi" diye açıkladı.

Bu, yapay zekanın "bildiklerini" "bilmediklerinden" ayırt etme yeteneğini geliştirmesini sağlayabilir.

Nature Machine Intelligence adlı akademik dergide yayımlanan çalışmanın yazarlarından Se-Bum Paik, "Bu çalışma, beyin gelişiminin temel ilkelerini birleştirerek, yapay zekanın kendi bilgi durumunu insanlara daha benzer bir şekilde tanıyabileceğini gösteriyor" dedi.

Bu önemli çünkü yapay zekanın yalnızca doğru cevabı ne sıklıkla verdiğini iyileştirmekle kalmayıp, ne zaman kararsız olduğunu veya yanılmış olabileceğini anlamasını sağlıyor.

Independent Türkçe


Ödül olmadan video oyunu oynayan maymunlar bilim insanlarını şoke etti

Japon makakları (AFP/Temsili)
Japon makakları (AFP/Temsili)
TT

Ödül olmadan video oyunu oynayan maymunlar bilim insanlarını şoke etti

Japon makakları (AFP/Temsili)
Japon makakları (AFP/Temsili)

Vishwam Sankaran Bilim ve Teknoloji Muhabiri 

Yeni bir araştırma kapsamında maymunların herhangi bir yiyecek ödülü olmadan, tamamen meraktan kendi istekleriyle dokunmatik ekranlı bir video oyununu uzun süre oynaması bilim insanlarını şaşkına çevirdi.

Araştırmacılara göre bulgular, merakın hayvan davranışını nasıl yönlendirdiğinin daha iyi anlaşılmasına yol açabilir.

Yiyecek veya çiftleşme fırsatları gibi dışsal ödüllerden bağımsız olarak işleyen merak duygusu, hayvanları çevrelerini keşfetmeye yönlendirir.

Ancak bir hayvanın çevresinin hangi kısımlarının diğerlerine göre daha fazla merak uyandırdığı tam olarak bilinmiyor.

Araştırmacılar, merakın aşırı basit veya karmaşık durumlardan kaçınırken, orta derecede karmaşık veya belirsiz uyaranlara yönelme eğiliminde olduğu varsayımında bulunuyor.

"Goldilocks ilkesi" denen bu kavram, insan merakını de şekillendiriyor.

Ancak hayvanlarda bu dürtüyü inceleyen çok az çalışma var.
 

Video oyunu oynayan maymun (KyotoU/Sakumi İki)​​​​​​​Video oyunu oynayan maymun (KyotoU/Sakumi İki)

Japonya'daki Kyoto Üniversitesi'nden bilim insanları, maymunlara dokunmatik ekranlı bir video oyunu vererek merakın nasıl işlediğini inceledi.

Video oyunları, insanların bilişsel yeteneklerini geliştirmesine ve yaşam kalitelerini artırmasına fayda sağlayan araçlar olarak son yıllarda öne çıkıyor.

Video oyunlarının laboratuvar ve hayvanat bahçelerindeki hayvanların ilgisini çekip çekemeyeceğini ve onların sağlık ve huzurunu iyileştirmeye yardımcı olup olamayacağını araştıran çalışmalar da yapılıyor.

Hakemli dergi iScience'ta yayımlanan çalışmanın yazarlarından Sakumi Iki, "Başlangıçta vahşi maymunların oyun davranışlarını inceliyordum, bu yüzden laboratuvardaki maymunlarda oyun davranışının doğal bir şekilde ortaya çıkabileceği durumlar yaratmayı uzun zamandır istiyordum" diye açıklıyor.

Araştırmacılar, bölgedeki Japon makaklarının merakını tam olarak ne tür uyaranların tetikleyebileceğini araştırdı.

Saklambaçtan esinlenerek dokunmatik ekran tabanlı bir oyun görevi geliştirdiler.

Bu oyunda maymun dokunmatik ekrandaki bir düğmeye bastığında, düğmeye bağlı olarak ekranın farklı bir yerinde bir kukla beliriyor.

Kuklanın ortaya çıkışı farklı gürültü seviyelerine göre değişirken, gürültü seviyesi yükseldikçe kukla daha zor tahmin edilen bir yerde görünüyor.

Bilim insanları maymunların orta ve düşük gürültüye, ardından orta ve yüksek gürültüye verdikleri tepkileri gözlemledi.

Maymunların, kuklanın biraz tahmin edilebilir ama yine de orta derecede belirsiz bir yerde belirmesini sağlayan orta gürültü düğmesini seçtiğini gördüler.

Bu da makakların tıpkı insanlar gibi, çok basit veya çok rastgele uyaranlara kıyasla, orta düzeyde belirsizliğe sahip uyaranları etkin bir şekilde keşfetme eğilimi gösterdiğine işaret ediyor.

Ayrıca maymunların oyunu oynamaya uzun süreler harcaması, oyunun meraklarını uyandırmada başarılı olduğu fikrini destekliyor.

Dr. Iki "Tipik bilişsel görevlerde maymunların motivasyonunu yüksek tutmak için genellikle onlara yiyecek ödülleri verilir; bu yüzden ödül olmadan oyuna ilgi göstereceklerinden pek emin değildim" diyor. 

Ancak şaşırtıcı bir şekilde, bazı maymunlar hiçbir ödül olmamasına rağmen bu oyunda neredeyse 100 deneme boyunca çalıştı.

Araştırmacılar gelecekteki çalışmalarda bu bulguları kullanarak maymunların merakını uyandıran daha fazla oyun geliştirmeyi umuyor.

Merakın arkasındaki sinirsel ve bilişsel mekanizmaları belirleyerek "bu olguyu daha kapsamlı bir şekilde anlamayı" hedefliyorlar.

Independent Türkçe,independent.co.uk/news