Alakargaların, insanların kandığı sihirbazlık numaralarını "yemediği" ortaya kondu

Alakargaların, insanların kandığı sihirbazlık numaralarını "yemediği" ortaya kondu
TT

Alakargaların, insanların kandığı sihirbazlık numaralarını "yemediği" ortaya kondu

Alakargaların, insanların kandığı sihirbazlık numaralarını "yemediği" ortaya kondu

El çabukluğuna dayanan sihirbazlık numaralarıyla insanları kandıran araştırmacılar, alakargaları "şaşırtamadı".
Bilim insanları, alakargaların (Latince ismi Garrulus glandarius olan bayağı alakarga da denen tür) bunun gibi hilelere yabancı olmadığını söyledi.
Zira kuşlar, yiyecek depolarken bir başka alakarga tarafından izleniyorsa, yemeği yerdeki farklı noktalara düşürmüş gibi davranıyor. Böylece yiyeceğin gerçek yeri gizleniyor.
Araştırma makalesinin yazarlarından Elias Garcia-Pelegrin bunu şöyle açıkladı:
"Çünkü hareketlerin hepsi birbine benziyor ve bu sayede gözlemci kuşun, yiyeceğin aslında nerede olduğu hakkında hiçbir fikri olmuyor."
Garcia-Pelegrin, sihirbazlık numaralarının genellikle izleyicilerin varsayımları üzerine kurulduğunu söyledi. Bunların, canlıların dünyayı nasıl algıladığını öğrenmenin bir yolu olabileceğini ifade etti.
Araştırmacılar, 6 alakarga ve 80 insanı içeren bir dizi test yaptı. Deneklere, bir solucanın hangi elde olduğuna dair 3 farklı teknikle sihirbazlık numarası sunuldu.
Alakargalar solucanı afiyetle yiyor. Yemi tutan yumruğu gagalamak üzere eğitilen kuşlar, bu sayede solucanın hangi elde olduğunu tahmin etti.
Bilim insanları, avuç içi transferi (palm transfer) ve Fransız düşüşü (French drop) adlı teknikleri kullandıkları sihirbazlık numaralarında kuşları kandıramadı. Garcia-Pelegrin, "Kuşların hiçbir şekilde kandırılmadığını gördük" dedi.
Alakargaların solucanı izlediği ve en son hangi elde gördüyse onu seçtiği düşünülüyor.
Öte yandan hayvanlar, hızlı geçiş (fast pass) adlı üçüncü teknikle yenildi. İnsanlarsa her üç teknikle de bozguna uğratıldı.
Uzmanlar, alakargalarla insanların kandırılma sebebinin aynı olmadığını düşünüyor. 
Pelegrin, insanların nesnenin hareket etme hızı karşısında şaşkına döndüğünü ancak alakargaların görüşünün yüksek hızı algılamada çok daha iyi olduğunu söyledi. Hızlı geçişte solucanı takip etmek için kafasını hareket ettirmesi gerektiğini, bu yüzden tek gözden iki göze geçtiğini ve muhtemelen bu anda solucanın izini kaybettiğini ifade etti.
Hakemli bilim dergisi PNAS'te yayımlanan araştırmanın bulguları, algıdaki kör noktaların türler arasında nasıl değişebileceğini gösteriyor ve bu tür bilişsel süreçlerin farklı hayvanlarda nasıl evrimleştiğine ışık tutuyor.
Araştırmacılar, bu konuda çalışmalarına devam etmek istiyor.
Independent Türkçe, Science Alert, New York Times



Yapay zekaya yöneltilince çevreye en çok zarar veren sorular belirlendi

Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
TT

Yapay zekaya yöneltilince çevreye en çok zarar veren sorular belirlendi

Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)

Yeni bir araştırmaya göre OpenAI'ın ChatGPT'si gibi yapay zeka sohbet botlarının mantıklı düşünmesini ve akıl yürütmesini gerektiren sorgular, diğer soru türlerine göre daha fazla karbon salımına yol açıyor.

ChatGPT gibi geniş dil modellerine (GDM) yazılan her sorgu enerji gerektiriyor ve karbondioksit salımına yol açıyor. Almanya'daki Münih Uygulamalı Bilimler Üniversitesi'nden araştırmacılar bu emisyon seviyelerinin sohbet botuna, kullanıcıya ve konuya bağlı olarak değiştiğini söylüyor.

Hakemli dergi Frontiers'ta yayımlanan araştırma, 14 yapay zeka modelini karşılaştırarak karmaşık akıl yürütme gerektiren cevapların, basit cevaplara göre daha fazla karbon salımı yaptığını ortaya koydu.

Soyut cebir veya felsefe gibi uzun uzun muhakeme gerektiren sorgular, lise tarih dersi gibi daha dolambaçsız konulara göre 6 kat daha fazla emisyon üretiyor.

Araştırmacılar yapay zeka sohbet botlarını sık kullananların, karbon emisyonlarını sınırlamak için sordukları soruların türünü ayarlamasını öneriyor.

Çalışma, farklı konularda bin standart soru üzerinden 14 GDM'yi değerlendirerek karbon salımlarını karşılaştırdı.

Çalışmanın yazarı Maximilian Dauner, "Eğitimli GDM'lere sorulan soruların çevresel etkisi, bunların muhakeme yaklaşımına büyük ölçüde bağlı ve doğrudan akıl yürütme süreçleri, enerji tüketimini ve karbon salımlarını önemli ölçüde artırıyor" diyor.

Akıl yürütme özelliğine sahip modellerin, yalın yanıt veren modellere kıyasla 50 kata kadar daha fazla karbondioksit salımına yol açtığını gördük.

Bir kullanıcı yapay zeka sohbet botuna soru sorduğunda, sorgudaki kelimeler veya kelime parçaları bir dizi sayıya dönüştürülerek model tarafından işleniyor. Bu dönüştürme ve yapay zekanın diğer hesaplama süreçleri karbon salımlarına neden oluyor.

Çalışma muhakeme becerisine sahip modellerin soru başına ortalama 543,5 jeton (token) oluştururken, yalın modellerin sadece 40 jeton gerektirdiğini belirtiyor.

Makalede "Daha yüksek jeton ayak izi, her zaman daha yüksek CO2 emisyonu anlamına gelir" ifadeleri kullanılıyor.

Örneğin yaklaşık yüze 85 doğruluk oranına ulaşan Cogito, en isabetli modellerden biri. Yalın cevaplar veren benzer boyutlardaki modellere göre üç kat daha fazla karbon emisyonu üretiyor.

Dr. Dauner, "Şu anda GDM teknolojilerinin doğasında, doğruluk ve sürdürülebilirlik arasında bir taviz verme ilişkisi görüyoruz" diyor. 

Emisyonları 500 gram karbondioksit eşdeğerinin altında tutan modellerin hiçbiri, bin soruyu doğru cevaplamada yüzde 80'in üzerinde doğruluk oranına ulaşamadı.

Karbondioksit eşdeğeri, çeşitli sera gazlarının iklim değişikliği üzerindeki etkisini ölçmek için kullanılan bir birim.

Araştırmacılar yeni bulguların, insanların yapay zeka kullanımı hakkında daha bilinçli kararlar almasını sağlayacağını umuyor.

Araştırmacılar bir örnek vererek DeepSeek R1 sohbet botundan 600 bin soruyu yanıtlamasını isteyen sorguların, Londra'dan New York'a gidiş-dönüş uçuşuna eşdeğer karbon emisyonu yaratabileceğini söylüyor.

Buna karşılık Alibaba Cloud'ın Qwen 2.5'i, benzer doğruluk oranlarıyla üç kat daha fazla soruya cevap verirken aynı emisyon seviyelerine ulaşıyor.

Dr. Dauner, "Kullanıcılar, yapay zekadan yalın cevaplar vermesini isteyerek veya yüksek kapasiteli modellerin kullanımını, gerçekten bu gücü gerektiren görevlerle sınırlayarak emisyonları önemli ölçüde azaltabilir" diyor.

Independent Türkçe