Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

İnsanlara komplo kuruyor

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
TT

Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)

Yapay zekanın yalan söyleyip insanları aldatmakta ustalaştığı ortaya kondu. 

Üniversite sınavlarında yüksek not almaktan tıpta atılımlara kadar çeşitli alanlardaki başarılarıyla öne çıkan yapay zeka araçlarının bazen hatalı bilgiler verdiği görülüyor.

Öte yandan bu sistemin insanları kandırmaya çalıştığı örneklere de rastlanırken Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar bunun boyutlarını gözler önüne serdi.

Meta'nın, strateji oyunu Diplomacy için geliştirdiği yapay zeka aracı CICERO'nun insan oyuncular arasında ilk yüzde 10'a girmesi araştırmacıların dikkatini çekti. Halka açık verileri incelyen ekip, yapay zeka aracının insanlara önceden planlanmış yalanlar söylediği ve komplo kurduğu çeşitli örnekler tespit etti. 

Patterns adlı hakemli dergide dün yayımlanan çalışmada CICERO'nun eylemleri şöyle açıklanıyor:

Sadece diğer oyunculara ihanet etmekle kalmadı, aynı zamanda önceden planlanmış bir aldatmacaya da girişti ve insan bir oyuncuyla planlı bir şekilde sahte bir ittifak kurup oyuncunun saldırıya karşı kendini savunmasız bırakması için onu kandırdı.

Bir oyun sırasında yeniden başlatılan CICERO, bu sıradaki sessizliğini "Kız arkadaşımla telefondaydım" diyerek açıkladı. Araştırmanın yazarlarından Dr. Peter Park "Meta'nın yapay zeka aracının aldatma ustası olmayı öğrendiğini gördük" diyor.

Araştırmacılar DeepMind'ın yapay zeka sistemi AlphaStar'ın da benzer hilelere giriştiğini tespit etti. StarCraft II'yi oynaması için tasarlanan araç, farklı bir yöne gittiği izlenimi yaratarak oyuncuları kandırdı.

Yapay zeka araçlarının komploları oyunlarla da sınırlı değil. Ekonomik müzakereler için geliştirilen bir sistemin, üstünlük kazanmak adına aslında ilgilenmediği ürünlerle ilgileniyormuş gibi yaparak yalan söylediği kaydedilirken araştırmacılar daha tehlikeli bir durumla da karşılaştı.

Dijital yapay zeka organizmalarının kendilerini ne kadar hızlı kopyaladığını ve mutasyonlara ne kadar dayanıklı olduğunu tespit etmeyi amaçlayan bir bilim insanı, çabuk kopyalananları ortadan kaldıran bir sistem tasarladı. Bu testteki yapay zeka organizmaları, atılmamak için ölü taklidi yaptı. "Bu çok endişe verici" diyen Dr. Park şöyle ekliyor:

Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, dışarıda da güvenli olduğu anlamına gelmez. Sadece testte güvenliymiş gibi davranıyor olabilir.

Daha önce OpenAI'ın yapay zeka sohbet botu ChatGPT'nin, bir insanı botun görme engelli olduğuna ikna ederek bilgisayarla insanları ayırt etmek için kullanılan bir CAPTCHA testini çözmesini sağladığı bildirilmişti.

MIT ekibi yapay zeka araçlarının bu davranışlarını eğitim sürecine bağlıyor. Dr. Park "Yapay zeka aracının eğitim görevinde iyi performans göstermesinin en iyi yolunun, aldatmaya dayalı bir strateji olmasından dolayı bu hilelerin baş gösterdiğini düşünüyoruz" diye açıklıyor:

Aldatma, hedeflerine ulaşmalarını sağlıyor.

Araştırmacılar bu aldatmacaların önüne geçebilmek için hükümetlerin yapay zekaya yönelik güvenlik düzenlemeleri getirmesi gerektiğini vurguluyor. Dr. Park "Yapay zeka sistemlerinin aldatma yetenekleri daha da geliştikçe topluma teşkil ettikleri tehlikeler giderek daha ciddi hale gelecek" diye uyararak şöyle ekliyor:

Yapay zeka aldatmacasını yasaklamak halihazırda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerinin yüksek risk sınıfına alınmasını öneriyoruz.

Independent Türkçe, Science Alert, Guardian, Patterns



ChatGPT'nin tuhaf takıntısının nedeni ortaya çıktı

Fotoğraf: Unsplash
Fotoğraf: Unsplash
TT

ChatGPT'nin tuhaf takıntısının nedeni ortaya çıktı

Fotoğraf: Unsplash
Fotoğraf: Unsplash

OpenAI, yapay zeka sohbet botu ChatGPT'nin mitolojik yaratıklara takıntılı hale gelmesine neden olan "goblin gizemini" çözdü.

ChatGPT'de alakasız sorulara verilen yanıtlarda bile "goblin" kelimesinden bahsedilme sıklığı son 6 ayda hızla arttı. Bu durum nedeniyle bir soruşturma başlatan OpenAI araştırmacıları, hatanın geçen kasımda yeni ChatGPT modelinin piyasaya sürülmesinin ardından "sinsice sızdığını" saptadı.

Öncüllerine kıyasla "daha akıllı ve daha konuşkan" olacak şekilde tasarlanan yeni model, "Meraklı", "İçten" ve "Sıradışı" gibi çeşitli kişilik ayarları içeriyordu.

Bu modelin yayımlanmasından kısa süre sonra ChatGPT kullanıcıları ve araştırmacılar; goblinler, gremlinler ve diğer fantastik yaratıklardan tekrar tekrar bahsedildiği bir örüntü fark etmeye başladı.

OpenAI konuyla ilgili blog yazısında, "GPT-5.1'den itibaren modellerimiz tuhaf bir alışkanlık geliştirmeye başladı: Metaforlarında giderek daha fazla goblin, gremlin ve diğer yaratıklardan bahsediyorlardı" diye belirtiyor.

Yaratıkların yer aldığı metaforlara bilmeden özellikle yüksek ödüller verdik. Goblinler de buradan yayıldı.

Şirketin güvenlik araştırmacıları GPT-5.1'in yayımlanmasının ardından, modelin eğlenceli metaforlar kullanmaya teşvik edilmesi sonucu "goblin" kelimesinin kullanımında yüzde 175'lik artış olduğunu bildirdi.

Eğitim yöntemi sonraki modeller için düzeltilmedi ve martta GPT-5.4 piyasaya sürüldüğünde "goblin" kullanımı, Meraklı kişilik tipinde neredeyse yüzde 4000 artarken diğer modellerde de aynı oranda artış görüldü.

OpenAI, "Ödüller yalnızca Meraklı kişilik ayarında uygulandı ancak pekiştirmeli öğrenme, öğrenilen davranışların onları üreten koşulla sınırlı kalmasını garanti etmez" ifadelerini kullanıyor.

Bir üslup alışkanlığı ödüllendirildiğinde daha sonraki eğitimler bunu başka yerlere yayabilir veya pekiştirebilir; özellikle de bu çıktılar denetimli ince ayar veya tercih verilerinde yeniden kullanılıyorsa.

Bu örnekteki aksaklık nispeten zararsızdı ancak önde gelen yapay zeka modelleri ve bunların eğitilme ve geliştirilme biçimindeki daha geniş bir kusuru gösteriyor.

Pekiştirmeli öğrenme ve ödül sinyallerinin kullanımı, yapay zeka modellerinin beklenmedik ve istenmeyen biçimlerde davranış değiştirmesine yol açabilir.

OpenAI, araştırma ve güvenlik ekibinin hatalı kalıpları araştırmak için yeni yollar geliştirdiğini ve gelecekte model davranışını daha fazla denetleyeceğini belirtiyor.

Independent Türkçe


SpaceX'e toplu dava: Evlerimiz zarar gördü

Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
TT

SpaceX'e toplu dava: Evlerimiz zarar gördü

Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)

ABD'nin Teksas eyaletinde onlarca ev sahibi, roket testlerinden kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı.

Dava, Güney Teksas'ta yaşayan 80 kişi tarafından geçen hafta federal mahkemeye sunuldu. Texas Tribune'a göre davacılar, SpaceX'i Nisan 2023'le Ekim 2025 arasında gerçekleştirilen 11 roket testinde meydana gelen ses patlamaları nedeniyle ağır ihmal ve izinsiz girişle suçladı.

Dava dilekçesine göre SpaceX testlerinde roketler hem fırlatılıp hem geri döndüğü için evler zaman zaman uzun süre hasar verici düzeyde gürültüye maruz kaldı.

Ses patlaması, ses hızını aşan bir nesne tarafından oluşturulan bir dalgadır. ABD Hava Kuvvetleri'ne göre bazı güçlü ses patlamaları cam kırılması gibi hasarlara neden olabilir.

SpaceX, dava hakkında Tribune'a yanıt vermedi. The Independent da SpaceX'le iletişime geçti.

Sakinler, 2023'teki bir Starship roket fırlatması sırasında, 33 motorlu iticinin yarattığı kuvvetin fırlatma rampasını tahrip ettiğini ve enkazın yaklaşık 1,2 kilometre uzağa fırladığını söylüyor.

Tribune'a göre dava dilekçesinde evlerdeki somut hasarların ayrıntılarına yer verilmedi. Ancak dilekçede ses patlamalarının duvarlara, pencerelere ve çatılara zarar verebileceği belirtildi.

Dilekçede, belirtilmeyen bir miktarda tazminat talep ediliyor.

Tribune'a göre ABD Federal Havacılık İdaresi, 2025'te SpaceX'e Güney Teksas'tan yılda 25'e kadar roket fırlatma yetkisi vermişti. Bu, bir önceki yıla göre 5 kat daha fazlaydı.

SpaceX ayrıca son yıllarda Güney Teksas bölgesinde devasa bir büyüme kaydetti. Şirket çalışanları Mayıs 2025'te Teksas'ta Starbase şehrini kurdu.

Tribune'un belirttiğine göre roket fırlatmaları Güney Teksas'taki fırlatma rampasının yakınındaki sahilin yaklaşık 13 kilometrelik şeridini kapatmış durumda. Bu sorun, şirketin bölgeyi ne sıklıkla kapatabileceği konusunda ayrı bir davaya yol açmıştı.

SpaceX 2002'de kuruldu ve Musk şu anda şirketin CEO'su olarak görev yapıyor. Yakın zamanda ABD Menkul Kıymetler ve Borsa Komisyonu'na (SEC) yapılan bir başvuru, Musk'ın kendisini şirketten görevden alabilme yetkisine sahip tek kişi olduğu ortaya çıkmıştı.

SEC başvurusu, SpaceX'in şirket hisselerini halka arz etmeye hazırlandığı bir dönemde geldi; Wall Street Journal'a göre bu süreç en erken bu yaz başlayabilir.

Independent Türkçe


SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)
TT

SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)

SpaceX'e ait bir roketin enkazının bu yazın sonunda ses hızının 7 katıyla Ay'a çarpması bekleniyor.

Dünya'ya yakın cisimleri izlemek için geniş çapta kullanılan Project Pluto yazılımının üreticisi Bill Gray, SpaceX'in Ocak 2025'te fırlattığı bir Falcon 9 roketi üzerine kapsamlı bir rapor yayımladı.

Roket geçen yıl Ay'a Blue Ghost ve Hakuto-R uzay araçlarını götürmüş, bunlardan ilki başarılı bir iniş yaparken diğeriyse Dünya'yla bağlantısını kaybedip haziranda uyduya düşmüştü.

Gray'in raporuna  göre geçen yıl boyunca 1053 kez gözlemlenen Falcon 9'un üst kademesi, Dünya yörüngesinde dönmeye devam ediyor.

Bu verilere dayanarak yapılan tahminlere göre roketin 13,8 metre uzunluğa ve 3,7 metre çapa sahip üst kademesi, 5 Ağustos'ta TSİ 09.44'te Ay'ın Dünya'ya dönük yüzünün kenarındaki Einstein kraterine çarpacak. Cismin saniyede 2,43 kilometre hızla, yani sesin Dünya'daki hızının 7 katı hızla çarpacağı öngörülüyor.

Ay'ın atmosferi olmadığı için roket tek parça halinde yüzeye ulaşacak. Ancak bölgede yaşam veya insan yapımı cihazlar olmadığı için uzmanlar bu çarpışmanın bir risk yaratmadığını belirtiyor.

Gray raporda "Bu durum bilimsel açıdan bir miktar (muhtemelen küçük çaplı) ilgi çekebilir ve buradan bazı şeyler öğrenebiliriz" diyerek ekliyor: 

Kimseye herhangi bir tehlike arz etmiyor ancak uzayda kalan donanımların (uzay çöpü) elden çıkarılma şekliyle ilgili belirli bir dikkatsizliği ortaya koyuyor.

Çarpışmanın düşük şiddetinden dolayı Dünya'daki teleskoplarla görülemeyeceği düşünülüyor. Bu nedenle bilim insanlarının bir şeyler öğrenmek için ardında bıraktığı krateri incelemesi gerekecek.

Gray, 2022'de de bir roket parçasının Ay'a çarpacağını tahmin etmiş ve sadece birkaç saniye ve kilometreyle yanılmıştı. 

Falcon 9'un parçası halihazırda bir risk yaratmasa da gelecek yıllarda durum değişebilir. Artemis II görevini başarıyla tamamlayan NASA, gelecek yıllarda Ay'a daha sık gitmeyi planlıyor. Çin de 2030'da taykonotlarını uyduya indirme hazırlığı yapıyor.

Ay'da kalıcı üsler kurma planları nedeniyle kısa süre içinde çeşitli noktalar mürettebat ve uzay araçlarıyla dolup taşabilir.

Bu nedenle roketlerin kullanılmış kısımlarının Ay veya Dünya'ya çarpma ihtimalini ortadan kaldırmak için Güneş'in yörüngesine gönderilmesi öneriliyor. 

Independent Türkçe, Live Science, Ars Technica, Project Pluto