Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

İnsanlara komplo kuruyor

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
TT

Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)

Yapay zekanın yalan söyleyip insanları aldatmakta ustalaştığı ortaya kondu. 

Üniversite sınavlarında yüksek not almaktan tıpta atılımlara kadar çeşitli alanlardaki başarılarıyla öne çıkan yapay zeka araçlarının bazen hatalı bilgiler verdiği görülüyor.

Öte yandan bu sistemin insanları kandırmaya çalıştığı örneklere de rastlanırken Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar bunun boyutlarını gözler önüne serdi.

Meta'nın, strateji oyunu Diplomacy için geliştirdiği yapay zeka aracı CICERO'nun insan oyuncular arasında ilk yüzde 10'a girmesi araştırmacıların dikkatini çekti. Halka açık verileri incelyen ekip, yapay zeka aracının insanlara önceden planlanmış yalanlar söylediği ve komplo kurduğu çeşitli örnekler tespit etti. 

Patterns adlı hakemli dergide dün yayımlanan çalışmada CICERO'nun eylemleri şöyle açıklanıyor:

Sadece diğer oyunculara ihanet etmekle kalmadı, aynı zamanda önceden planlanmış bir aldatmacaya da girişti ve insan bir oyuncuyla planlı bir şekilde sahte bir ittifak kurup oyuncunun saldırıya karşı kendini savunmasız bırakması için onu kandırdı.

Bir oyun sırasında yeniden başlatılan CICERO, bu sıradaki sessizliğini "Kız arkadaşımla telefondaydım" diyerek açıkladı. Araştırmanın yazarlarından Dr. Peter Park "Meta'nın yapay zeka aracının aldatma ustası olmayı öğrendiğini gördük" diyor.

Araştırmacılar DeepMind'ın yapay zeka sistemi AlphaStar'ın da benzer hilelere giriştiğini tespit etti. StarCraft II'yi oynaması için tasarlanan araç, farklı bir yöne gittiği izlenimi yaratarak oyuncuları kandırdı.

Yapay zeka araçlarının komploları oyunlarla da sınırlı değil. Ekonomik müzakereler için geliştirilen bir sistemin, üstünlük kazanmak adına aslında ilgilenmediği ürünlerle ilgileniyormuş gibi yaparak yalan söylediği kaydedilirken araştırmacılar daha tehlikeli bir durumla da karşılaştı.

Dijital yapay zeka organizmalarının kendilerini ne kadar hızlı kopyaladığını ve mutasyonlara ne kadar dayanıklı olduğunu tespit etmeyi amaçlayan bir bilim insanı, çabuk kopyalananları ortadan kaldıran bir sistem tasarladı. Bu testteki yapay zeka organizmaları, atılmamak için ölü taklidi yaptı. "Bu çok endişe verici" diyen Dr. Park şöyle ekliyor:

Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, dışarıda da güvenli olduğu anlamına gelmez. Sadece testte güvenliymiş gibi davranıyor olabilir.

Daha önce OpenAI'ın yapay zeka sohbet botu ChatGPT'nin, bir insanı botun görme engelli olduğuna ikna ederek bilgisayarla insanları ayırt etmek için kullanılan bir CAPTCHA testini çözmesini sağladığı bildirilmişti.

MIT ekibi yapay zeka araçlarının bu davranışlarını eğitim sürecine bağlıyor. Dr. Park "Yapay zeka aracının eğitim görevinde iyi performans göstermesinin en iyi yolunun, aldatmaya dayalı bir strateji olmasından dolayı bu hilelerin baş gösterdiğini düşünüyoruz" diye açıklıyor:

Aldatma, hedeflerine ulaşmalarını sağlıyor.

Araştırmacılar bu aldatmacaların önüne geçebilmek için hükümetlerin yapay zekaya yönelik güvenlik düzenlemeleri getirmesi gerektiğini vurguluyor. Dr. Park "Yapay zeka sistemlerinin aldatma yetenekleri daha da geliştikçe topluma teşkil ettikleri tehlikeler giderek daha ciddi hale gelecek" diye uyararak şöyle ekliyor:

Yapay zeka aldatmacasını yasaklamak halihazırda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerinin yüksek risk sınıfına alınmasını öneriyoruz.

Independent Türkçe, Science Alert, Guardian, Patterns



SpaceX'e toplu dava: Evlerimiz zarar gördü

Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
TT

SpaceX'e toplu dava: Evlerimiz zarar gördü

Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)

ABD'nin Teksas eyaletinde onlarca ev sahibi, roket testlerinden kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı.

Dava, Güney Teksas'ta yaşayan 80 kişi tarafından geçen hafta federal mahkemeye sunuldu. Texas Tribune'a göre davacılar, SpaceX'i Nisan 2023'le Ekim 2025 arasında gerçekleştirilen 11 roket testinde meydana gelen ses patlamaları nedeniyle ağır ihmal ve izinsiz girişle suçladı.

Dava dilekçesine göre SpaceX testlerinde roketler hem fırlatılıp hem geri döndüğü için evler zaman zaman uzun süre hasar verici düzeyde gürültüye maruz kaldı.

Ses patlaması, ses hızını aşan bir nesne tarafından oluşturulan bir dalgadır. ABD Hava Kuvvetleri'ne göre bazı güçlü ses patlamaları cam kırılması gibi hasarlara neden olabilir.

SpaceX, dava hakkında Tribune'a yanıt vermedi. The Independent da SpaceX'le iletişime geçti.

Sakinler, 2023'teki bir Starship roket fırlatması sırasında, 33 motorlu iticinin yarattığı kuvvetin fırlatma rampasını tahrip ettiğini ve enkazın yaklaşık 1,2 kilometre uzağa fırladığını söylüyor.

Tribune'a göre dava dilekçesinde evlerdeki somut hasarların ayrıntılarına yer verilmedi. Ancak dilekçede ses patlamalarının duvarlara, pencerelere ve çatılara zarar verebileceği belirtildi.

Dilekçede, belirtilmeyen bir miktarda tazminat talep ediliyor.

Tribune'a göre ABD Federal Havacılık İdaresi, 2025'te SpaceX'e Güney Teksas'tan yılda 25'e kadar roket fırlatma yetkisi vermişti. Bu, bir önceki yıla göre 5 kat daha fazlaydı.

SpaceX ayrıca son yıllarda Güney Teksas bölgesinde devasa bir büyüme kaydetti. Şirket çalışanları Mayıs 2025'te Teksas'ta Starbase şehrini kurdu.

Tribune'un belirttiğine göre roket fırlatmaları Güney Teksas'taki fırlatma rampasının yakınındaki sahilin yaklaşık 13 kilometrelik şeridini kapatmış durumda. Bu sorun, şirketin bölgeyi ne sıklıkla kapatabileceği konusunda ayrı bir davaya yol açmıştı.

SpaceX 2002'de kuruldu ve Musk şu anda şirketin CEO'su olarak görev yapıyor. Yakın zamanda ABD Menkul Kıymetler ve Borsa Komisyonu'na (SEC) yapılan bir başvuru, Musk'ın kendisini şirketten görevden alabilme yetkisine sahip tek kişi olduğu ortaya çıkmıştı.

SEC başvurusu, SpaceX'in şirket hisselerini halka arz etmeye hazırlandığı bir dönemde geldi; Wall Street Journal'a göre bu süreç en erken bu yaz başlayabilir.

Independent Türkçe


SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)
TT

SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)

SpaceX'e ait bir roketin enkazının bu yazın sonunda ses hızının 7 katıyla Ay'a çarpması bekleniyor.

Dünya'ya yakın cisimleri izlemek için geniş çapta kullanılan Project Pluto yazılımının üreticisi Bill Gray, SpaceX'in Ocak 2025'te fırlattığı bir Falcon 9 roketi üzerine kapsamlı bir rapor yayımladı.

Roket geçen yıl Ay'a Blue Ghost ve Hakuto-R uzay araçlarını götürmüş, bunlardan ilki başarılı bir iniş yaparken diğeriyse Dünya'yla bağlantısını kaybedip haziranda uyduya düşmüştü.

Gray'in raporuna  göre geçen yıl boyunca 1053 kez gözlemlenen Falcon 9'un üst kademesi, Dünya yörüngesinde dönmeye devam ediyor.

Bu verilere dayanarak yapılan tahminlere göre roketin 13,8 metre uzunluğa ve 3,7 metre çapa sahip üst kademesi, 5 Ağustos'ta TSİ 09.44'te Ay'ın Dünya'ya dönük yüzünün kenarındaki Einstein kraterine çarpacak. Cismin saniyede 2,43 kilometre hızla, yani sesin Dünya'daki hızının 7 katı hızla çarpacağı öngörülüyor.

Ay'ın atmosferi olmadığı için roket tek parça halinde yüzeye ulaşacak. Ancak bölgede yaşam veya insan yapımı cihazlar olmadığı için uzmanlar bu çarpışmanın bir risk yaratmadığını belirtiyor.

Gray raporda "Bu durum bilimsel açıdan bir miktar (muhtemelen küçük çaplı) ilgi çekebilir ve buradan bazı şeyler öğrenebiliriz" diyerek ekliyor: 

Kimseye herhangi bir tehlike arz etmiyor ancak uzayda kalan donanımların (uzay çöpü) elden çıkarılma şekliyle ilgili belirli bir dikkatsizliği ortaya koyuyor.

Çarpışmanın düşük şiddetinden dolayı Dünya'daki teleskoplarla görülemeyeceği düşünülüyor. Bu nedenle bilim insanlarının bir şeyler öğrenmek için ardında bıraktığı krateri incelemesi gerekecek.

Gray, 2022'de de bir roket parçasının Ay'a çarpacağını tahmin etmiş ve sadece birkaç saniye ve kilometreyle yanılmıştı. 

Falcon 9'un parçası halihazırda bir risk yaratmasa da gelecek yıllarda durum değişebilir. Artemis II görevini başarıyla tamamlayan NASA, gelecek yıllarda Ay'a daha sık gitmeyi planlıyor. Çin de 2030'da taykonotlarını uyduya indirme hazırlığı yapıyor.

Ay'da kalıcı üsler kurma planları nedeniyle kısa süre içinde çeşitli noktalar mürettebat ve uzay araçlarıyla dolup taşabilir.

Bu nedenle roketlerin kullanılmış kısımlarının Ay veya Dünya'ya çarpma ihtimalini ortadan kaldırmak için Güneş'in yörüngesine gönderilmesi öneriliyor. 

Independent Türkçe, Live Science, Ars Technica, Project Pluto


Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
TT

Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)

Güney Afrika, ulusal yapay zeka politika taslağını; metindeki bazı kuralların yapay zeka tarafından üretildiğinin ve mevcut olmayan uydurma kaynaklara atıfta bulunulduğunun tespit edilmesi üzerine geri çekme kararı aldı.

İletişim Bakanı Solly Malatsi, taslak politikanın 67 akademik alıntısından en az 6'sının, var olmayan dergi makalelerine atıfta bulunan yapay zeka halüsinasyonları olduğunu tespit ettikten sonra taslağı geri çekti.

Malatsi, "En mantıklı açıklama, yapay zeka tarafından oluşturulan alıntıların uygun doğrulama yapılmadan dahil edilmiş olması. Bu asla olmamalıydı" dedi.

X'teki gönderisinde, "Bu başarısızlık sadece teknik bir sorun değil, taslak politikanın bütünlüğünü ve güvenilirliğini tehlikeye atmıştır" diye yazdı.

Taslak politika, kamuoyunun görüşüne açılmış, ülkeyi yapay zeka inovasyonunda lider olarak konumlandırmayı ve yapay zeka kullanımındaki etik, sosyal ve ekonomik zorlukları ele almayı amaçlamıştı.

Tasarı, ülkede yapay zeka kullanımını denetlemek üzere yeni kurumlar kurma planlarını ortaya koymuştu; bunlar arasında ulusal bir yapay zeka komisyonu, bir yapay zeka etik kurulu ve bir yapay zeka düzenleme organı yer alıyor.

Taslak kurallar ayrıca ülkede yapay zeka altyapısının oluşturulmasında özel sektör işbirliğini teşvik etmek için vergi indirimi, hibe ve sübvansiyon planlarını da özetlemişti.

Taslağın, kamuoyu görüşüne yeniden sunulmadan önce revize edilmesi bekleniyor.

Konu, Güney Afrika'nın News24 haber sitesinin, belgenin 67 akademik alıntısından en az 6'sının mevcut olmadığını ancak referans verilen dergilerin gerçek olduğunu tespit etmesiyle ortaya çıktı.

South African Journal of Philosophy, AI & Society ve Journal of Ethics and Social Philosophy adlı akademik dergiler dahil dergilerin editörleri alıntı yapılan makalelerin sahte olduğunu bağımsız biçimde doğruladı.

İletişim Bakanı, politikanın hazırlanmasından sorumlu olanların bunun sonuçlarına katlanmak zorunda kalacağını söyledi.

X'te, "Bu kabul edilemez hata, yapay zekanın kullanımında insan gözetiminin neden kritik önem taşıdığını kanıtlıyor. Bu alçakgönüllülükle çıkardığımız bir ders" diye yazdı.

Bu, akademisyenlerle yöneticilerin araştırma ve taslak hazırlamak için üretken yapay zekayı kullanmasına ilişkin giderek büyüyen sorunu vurguluyor.

Nature adlı akademik dergide çıkan bir çalışma, 2025'te yayımlanan akademik makalelerin yüzde 2,5'inden fazlasının en az bir olası halüsinasyon alıntı içerdiğini, bu oranın 2024'te sadece yüzde 0,3 olduğunu ortaya koydu.

Bu, 2025'te yayımlanan 110 binden fazla makalenin, yapay zeka tarafından "halüsinasyon" olarak üretilmiş geçersiz referanslar içerdiği anlamına geliyor.

Bunlar, yapay zeka modellerinin verilerinin o alanda yetersiz olduğunu algıladığında ürettiği, kendinden emin ancak uydurma çıktılar.

OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi büyük dil modelleri, bir kelime dizisinde sıradaki en olası sözcüğü tahmin etmek için tasarlanmıştır, özellikle doğruluğunu kontrol etmek için değil.

Yani bir alanda veri eksikliği tespit ederse, yapay zeka modeli boşlukları mantıklı görünen ancak yanlış bilgilerle dolduruyor.

Bir yapay zeka modeli, eğitim verilerini kullanarak bir alıntının nasıl görüneceğini tahmin eder ve inanılır gibi görünen ancak gerçekte var olmayan bazı referanslar üretiyor.

Bu durum, özellikle akademisyenler ve yetkililer tarafından kullanıldığında, yapay zeka yanıtlarının dikkatli insan gözetimine duyulan ihtiyacın giderek arttığına işaret ediyor.

Independent Türkçe