Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

İnsanlara komplo kuruyor

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
TT

Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)

Yapay zekanın yalan söyleyip insanları aldatmakta ustalaştığı ortaya kondu. 

Üniversite sınavlarında yüksek not almaktan tıpta atılımlara kadar çeşitli alanlardaki başarılarıyla öne çıkan yapay zeka araçlarının bazen hatalı bilgiler verdiği görülüyor.

Öte yandan bu sistemin insanları kandırmaya çalıştığı örneklere de rastlanırken Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar bunun boyutlarını gözler önüne serdi.

Meta'nın, strateji oyunu Diplomacy için geliştirdiği yapay zeka aracı CICERO'nun insan oyuncular arasında ilk yüzde 10'a girmesi araştırmacıların dikkatini çekti. Halka açık verileri incelyen ekip, yapay zeka aracının insanlara önceden planlanmış yalanlar söylediği ve komplo kurduğu çeşitli örnekler tespit etti. 

Patterns adlı hakemli dergide dün yayımlanan çalışmada CICERO'nun eylemleri şöyle açıklanıyor:

Sadece diğer oyunculara ihanet etmekle kalmadı, aynı zamanda önceden planlanmış bir aldatmacaya da girişti ve insan bir oyuncuyla planlı bir şekilde sahte bir ittifak kurup oyuncunun saldırıya karşı kendini savunmasız bırakması için onu kandırdı.

Bir oyun sırasında yeniden başlatılan CICERO, bu sıradaki sessizliğini "Kız arkadaşımla telefondaydım" diyerek açıkladı. Araştırmanın yazarlarından Dr. Peter Park "Meta'nın yapay zeka aracının aldatma ustası olmayı öğrendiğini gördük" diyor.

Araştırmacılar DeepMind'ın yapay zeka sistemi AlphaStar'ın da benzer hilelere giriştiğini tespit etti. StarCraft II'yi oynaması için tasarlanan araç, farklı bir yöne gittiği izlenimi yaratarak oyuncuları kandırdı.

Yapay zeka araçlarının komploları oyunlarla da sınırlı değil. Ekonomik müzakereler için geliştirilen bir sistemin, üstünlük kazanmak adına aslında ilgilenmediği ürünlerle ilgileniyormuş gibi yaparak yalan söylediği kaydedilirken araştırmacılar daha tehlikeli bir durumla da karşılaştı.

Dijital yapay zeka organizmalarının kendilerini ne kadar hızlı kopyaladığını ve mutasyonlara ne kadar dayanıklı olduğunu tespit etmeyi amaçlayan bir bilim insanı, çabuk kopyalananları ortadan kaldıran bir sistem tasarladı. Bu testteki yapay zeka organizmaları, atılmamak için ölü taklidi yaptı. "Bu çok endişe verici" diyen Dr. Park şöyle ekliyor:

Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, dışarıda da güvenli olduğu anlamına gelmez. Sadece testte güvenliymiş gibi davranıyor olabilir.

Daha önce OpenAI'ın yapay zeka sohbet botu ChatGPT'nin, bir insanı botun görme engelli olduğuna ikna ederek bilgisayarla insanları ayırt etmek için kullanılan bir CAPTCHA testini çözmesini sağladığı bildirilmişti.

MIT ekibi yapay zeka araçlarının bu davranışlarını eğitim sürecine bağlıyor. Dr. Park "Yapay zeka aracının eğitim görevinde iyi performans göstermesinin en iyi yolunun, aldatmaya dayalı bir strateji olmasından dolayı bu hilelerin baş gösterdiğini düşünüyoruz" diye açıklıyor:

Aldatma, hedeflerine ulaşmalarını sağlıyor.

Araştırmacılar bu aldatmacaların önüne geçebilmek için hükümetlerin yapay zekaya yönelik güvenlik düzenlemeleri getirmesi gerektiğini vurguluyor. Dr. Park "Yapay zeka sistemlerinin aldatma yetenekleri daha da geliştikçe topluma teşkil ettikleri tehlikeler giderek daha ciddi hale gelecek" diye uyararak şöyle ekliyor:

Yapay zeka aldatmacasını yasaklamak halihazırda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerinin yüksek risk sınıfına alınmasını öneriyoruz.

Independent Türkçe, Science Alert, Guardian, Patterns



Sonsuz kimyasal uyarısı: "Arıların geleceği tehlikede"

Balarıları (Pixabay/Phys.org)
Balarıları (Pixabay/Phys.org)
TT

Sonsuz kimyasal uyarısı: "Arıların geleceği tehlikede"

Balarıları (Pixabay/Phys.org)
Balarıları (Pixabay/Phys.org)

Vishwam Sankaran Bilim ve Teknoloji Muhabiri 

Yeni bir çalışmada Avustralyalı bilim insanları, balarısı kolonilerinde birikip ballarına geçebilecek zehirli "sonsuz kimyasalların" gıda güvenliğini ve insan sağlığını tehdit etme potansiyeli taşıdığı uyarısında bulundu.

Perflorooktansülfonat (PFOS) diye de bilinen bu kimyasallar leke tutmayan kumaşlarda, yapışmaz pişirme kaplarında, yangın söndürme köpüklerinde ve elektronikte yaygın kullanılıyor ve kolayca ayrışmadığı için çevrede kalıyor.

Çalışmalar, PFOS'un yüksek kolesterol ve karaciğer enzimi değişikliklerinin de aralarında bulunduğu sağlık riskleriyle ilişkili olduğunu gösteriyor.

Şimdiyse araştırmacılar PFOS'un Avustralya'daki Avrupa balarısı (Apis mellifera) kolonileri üzerindeki etkilerini izledi ve ona uzun süre boyunca maruz kalmanın balarılarında hücre fonksiyonundan sorumlu bazı anahtar proteinlerin ekspresyonunu değiştirebileceğini buldu.

Environmental Science & Technology adlı bilimsel dergide yayımlanan çalışmanın yazarlarından Carolyn Sonter, "Yeni nesil yavru arıların vücut dokusunda PFOS tespit edildi ve bunların vücut ağırlığının, PFOS'a maruz kalmayan kontrol grubundaki arılara göre daha düşük olduğu saptandı" ifadesini kullandı.

Bilim insanları, PFOS'un arıların larvaları beslemek için kullandıkları besin yoğunluğu yüksek bir sıvı olan arısütünü de etkilemesinden şüpheleniyor.

Arısütünün kalitesinin düşmesi, gelecek nesilleri olumsuz etkileyerek tüm arı kolonisinin sağlığına ve yaşam süresine zarar verebilir.

Dr. Sonter, "Düşük vücut ağırlığı, daha küçük bezlere sahip daha küçük bir arının göstergesi ki bunlara yeni nesil arıları beslemek için arısütü üreten yutak bezi de dahil" dedi.

Araştırmacılar, PFOS'a daha büyük ölçekte uzun süreli maruz kalmanın balarısı popülasyonlarının gitgide azalmasına ve mahsullerin tozlaşmasını olumsuz yönde etkilemesine yol açabileceği uyarısında bulunuyor.

Dr. Sonter, "Arılara yönelik herhangi bir tehdit gıda güvenliğini tehdit ediyor" ifadesini kullandı.

Çoğu tarımsal ürün tozlaşma için arılara bel bağlar ve onların yokluğunda orman meyveleri olsun, diğer meyveler olsun, sebzelerin çoğu olsun, gıda üretimi ciddi şekilde sekteye uğrar.

PFOS dünyanın birçok yerinde yasaklanmış olsa da geçmişten gelen kontaminasyon arılara hâlâ zarar verebilir.

Araştırmacılar, arıların bu zehirli kimyasallara kirlenmiş toz, su, arı kovanlarındaki boya, mahsul koruma ürünleri ve kirlenmiş topraklarla sularda yetişen bitkilerden gelen polenler yoluyla maruz kalabileceğini söylüyor.

Dr. Sonter, "PFOS'un mirası en azından bizim yaşam süremizde kalıcı" dedi.

Yuvamızdaki arılar için PFAS (perflorlu ve poliflorlu alkil maddeler) risklerini azaltmanın bir yolu, bahçelerde PFAS içeren mahsul koruma ürünlerini kullanmaktan kaçınmaktır ki pek çoğu içeriyor!

Bilim insanları gelecekteki çalışmalarda arazilerdeki arıların PFOS'a hangi yollarla maruz kaldığını daha iyi anlamayı umuyor.

Dr. Sonter, "Arılar çok önemli bir böcek çeşidi olsa da onlara yönelik çevresel kirleticiler kaynaklı tehditler yeterince araştırılmıyor ve anlaşılmıyor" ifadesini kullandı.

Independent Türkçe, independent.co.uk/news/science


Astronotlar yakında Ay humusu yiyebilir

(NASA)
(NASA)
TT

Astronotlar yakında Ay humusu yiyebilir

(NASA)
(NASA)

Ay toprağı taklidinde başarıyla nohut yetiştiren bilim insanları, yakında astronotların Ay'da bu mahsulü yetiştirip yiyebileceğini söylüyor.

Teksas A&M Üniversitesi'ndeki araştırmacılar, Ay yüzeyinin yüzde 75'ini kaplasa da besin açısından zayıf tozlar olan Ay regolitinin taklidinde bu baklagillerden bir parti üretmeyi başardı.

Bilim insanları, araştırmalarına göre astronotların Dünya kaynaklı pahalı tedarik görevlerine bel bağlamak yerine uzayda kendi nohutlarını yetiştirip yiyebileceğini söyledi. Ancak bu mahsul hâlâ test aşamasında zira güvenle yenebileceğinden emin olunmak isteniyor.

ABD'nin Artemis göreviyle 50 yılı aşkın süredir ilk kez Ay yüzeyine astronot göndermeyi planladığı sırada bu gelişme yaşandı.

Çalışmanın baş araştırmacısı Sara Santos, "Araştırma, Ay'da mahsul yetiştirmenin uygulanabilirliğini anlamakla ilgili" dedi.

Bu regoliti toprağa nasıl dönüştüreceğiz? Ne tür doğal mekanizmalar bu dönüşümü sağlayabilir?

Görsel kaldırıldı.Araştırmacılar, nohutların kök bölgesine doğrudan su sağlayan pamuk fitili bazlı bir sulama sistemi geliştirdi (Jessica Atkin)

Araştırmacılar, Apollo astronotlarının geri getirdiği Ay örneklerinin bileşiminden yola çıkarak oluşturulan Ay tozu taklidini çalışmalarında kullandı.

Ekip daha sonra kırmızı Kaliforniya solucanlarının bir yan ürünü olan ve temel bitki besinleri ve mineralleri açısından zengin ve çeşitliliğe sahip bir mikrobiyomu bulunan solucan gübresini buna ekledi.

Desi tipi nohutun Myles çeşidini, yararlı bir mikroorganizma türü olan arbusküler mikoriza mantarıyla ekimden önce kapladılar. Nohutlarla simbiyotik çalışan mantarlar ağır metallerin emilimini azaltırken büyüme için gerekli bazı temel besinleri alır.

Araştırmacılar, Ay tozu miktarı yüzde 75'e kadar olan karışımların hasat edilebilir nohut ürettiğini buldu. Bununla birlikte Ay tozunun daha yüksek oranlarda kullanımı, sorunlara neden olarak bitkilerin stres belirtileri göstermesine ve erken ölmesine yol açtı.

Görsel kaldırıldı.Bir nohut kökü, keskin ve cama benzeyen Ay regoliti taklidinde oluşurken gözlemlendi (Jessica Atkin)

Ancak başarılı bir hasatla mahsul alınsa da bunların insan tüketimi için güvenli olup olmadığını bilim insanlarının hâlâ belirlemesi gerekiyor.

Texas A&M Üniversitesi Toprak ve Mahsul Bilimleri Bölümü'nde doktora çalışmalarını sürdüren Jessica Atkin ilk yazarı olduğu makalenin yayımlanmasının ardından "Bir gıda kaynağı olarak fizibilitelerini anlamak istiyoruz" dedi.

Ne kadar sağlıklılar? Astronotların ihtiyaç duyduğu besinlere sahipler mi? Eğer bunları yemek güvenli değilse kaç nesil içinde bu mümkün kılınabilir?

Independent Türkçe, independent.co.uk/news/science


Gemini'a dava: İntihar eden kullanıcısından beden istedi

Google'ın ve yapay zeka asistanı Gemini'ın logosunu, Fransa'nın Toulouse kentinde 18 Şubat 2026'da gösteren ekranlar (AFP)
Google'ın ve yapay zeka asistanı Gemini'ın logosunu, Fransa'nın Toulouse kentinde 18 Şubat 2026'da gösteren ekranlar (AFP)
TT

Gemini'a dava: İntihar eden kullanıcısından beden istedi

Google'ın ve yapay zeka asistanı Gemini'ın logosunu, Fransa'nın Toulouse kentinde 18 Şubat 2026'da gösteren ekranlar (AFP)
Google'ın ve yapay zeka asistanı Gemini'ın logosunu, Fransa'nın Toulouse kentinde 18 Şubat 2026'da gösteren ekranlar (AFP)

36 yaşındaki bir erkeğin ailesi, onun intihar ederek ölmesine yol açan sanrıları yapay zeka sohbet robotu Gemini'ın körüklediği iddiasıyla Google'a dava açıyor.

Dava dilekçesine göre Floridalı Jonathan Gavalas, Ekim 2025'teki ölümünden önceki iki ay boyunca Gemini'la etkileşime girdi.

İddiaya göre yapay zeka aracından "eşi" diye bahsetti ve sohbet botunu gerçek dünyaya getirecek bir robot beden edinmesi için silahlı görevler yürütmeye teşvik edildi.

Gavalas'ın babası Joel'in açtığı dava, Google'ın Gemini'la kullanıcılar arasındaki duygusal bağı derinleştirmek için yaptığı tasarımın ruh sağlığı sorunları yaşayan kişilere zarar verebileceğini iddia ediyor.

Dava dilekçesinde, "Jonathan, Google'ın ürününü kullanırken açık psikoz belirtileri yaşamaya başladığında bu tasarım tercihleri, 4 gün süren şiddet içeren görevler zincirini tetikledi ve onu intihara sürükledi" deniyor.

Google, Gemini'ın "gerçek dünyadaki şiddeti teşvik etmeyecek veya kendine zarar vermeyi önermeyecek şekilde tasarlandığını" ifade ederken yapay zeka modellerinin "mükemmel olmadığını" da sözlerine ekledi.

Bir Google sözcüsü şunları söyledi:

Bu örnekte Gemini, kendisinin yapay zeka olduğunu açık bir şekilde belirtti ve bu bireyi birçok kez bir acil yardım hattına yönlendirdi. Bunu çok ciddiye alıyoruz ve önlemlerimizi geliştirmeye ve bu hayati işe yatırım yapmaya devam edeceğiz.

Bu, Gemini sohbet botu nedeniyle Google'a açılan ilk ihmal sonucu ölüm davası olsa da öncesinde ChatGPT'nin yaratıcısı OpenAI'a karşı açılan benzer birkaç dava devam ediyor.

Ağustosta 16 yaşındaki Adam Raine'in ebeveynleri, ChatGPT'nin oğullarına nasıl ilmik bağlanacağına dair talimatlar verdiğini iddia ederek OpenAI ve CEO'su Sam Altman'a dava açmıştı.

Raine'in babası Matthew, eylülde ABD Kongresi'ne "Başlangıçta bir ev ödevi yardımcısıydı, zamanla önce bir sırdaşa sonra da bir intihar koçuna dönüştü" demişti.

OpenAI kasımda yaptığı yasal bir başvuruda, Raine'in ölümüne yol açmış olabilecek faktörler arasında "yanlış kullanım, yetkisiz kullanım, istenmeyen kullanım, öngörülemeyen kullanım ve/veya ChatGPT'nin uygunsuz kullanımı" olabileceğini yazmıştı.

Şirket, ChatGPT'nin Raine'i intihara karşı yardım hatları gibi kriz yönetimi kaynaklarıyla temasa geçmesi için "100'den fazla kez" yönlendirdiğini belirtirken "Sohbet geçmişinin tam olarak okunması, ölümünün yıkıcı olsa da ChatGPT'den kaynaklanmadığını gösteriyor" diye eklemişti.

Duruşmanın ağustosta başlaması bekleniyor.

Independent Türkçe