Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
TT

Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)

Katil robotları veya resmi adıyla ‘ölümcül otonom silahları’ romanlarda ya da bilim-kurgu filmlerinde görmüş yahut duymuş olmalısınız.

“İnsanları rastgele öldüren son derece akıllı silah” fikri, halen bir bilim-kurgu efsanesi olarak görülse de yapay zekaya dayalı silahlar oldukça kafa karıştırıcı hale geldi. Bu da bazı kesimlerde, hesap verilebilirliğin olmamasına ve teknoloji alanında hatalar yapılmasına karşı ciddi bir endişe ve korku yarattı.

Tarafsız olması gereken yapay zekanın cinsiyete dayalı algoritmalar ve yetersiz olan içerik denetleme sistemleri ürettiğini görmüştük. Şarku’l Avsat’ı  The Conversation internet sitesinde yayınlanan  makaleden aktardığına göre yapay zeka sistemlerinin yapımcıları ellerindeki teknolojinin yapabileceklerini tam olarak idrak edemediler. Öte yandan bu alanda yapılacak olası hatalar, savaş zamanlarında sivillerin ölümüne ya da savaşan taraflar arasındaki müzakerelerin bozulmasına neden olabilir.

Örneğin, yapay zekanın hedefi tanımlama algoritmaları, tankları etrafında askerlerle birlikte gösteren uydu görüntüleriyle eğitilirse bir hata yapıp askeri bir kontrol noktasından geçen sivil bir aracı, çevresinde askerler bulunan bir tank olduğunu düşünerek hedef alabilir.

Gerçekten otonom silahlara ihtiyacımız var mı?

Birçok ülkede çok sayıda sivil, süper güçlerin gelişmiş silahlar üretme yöntemlerinden kaynaklanan büyük acılar çekti. Pek çok insan, daha kısa bir süre önce, 2022 yılı başlarında Rusya'nın Ukrayna'yı işgal için açtığı savaşa atıfla bu silahların yarardan çok zarara yol açtığını düşünüyorlar.

Rakip taraf, her ülkenin kendisini koruyabilmesi, yani diğer ülkelerin başardığı askeri teknolojiye ayak uydurabilmesi gerektiğine inanıyor. Yapay zeka satranç ve poker gibi oyunlarda insan karşısında zafer kazandı. Aynı zamanda gerçek hayatta da insanlardan daha iyi performans gösteriyor.

Microsoft’a göre kelime tanıma yazılımının hata oranı yüzde 1’ken, insanların hata yapma oranının yüzde 6 olduğundan orduların silahların kullanımı konusunda inisiyatifi yavaş yavaş algoritmalara devretmesi şaşırtıcı değil.

Ölümcül otonom silahlar neler?

ABD Savunma Bakanlığı, ölümcül otonom silahları, ‘insan müdahalesi olmadan hedefleri tespit edip bunlara saldırabilen silah sistemleri’ olarak tanımlıyor.

Bu tanım birçok savaş sistemi için geçerli. İnsansız hava araçlarındaki (İHA) ve bazı modern füzelerdeki bilgisayar sistemleri, hedefleri tespit etmelerini ve tespit edilen bu noktaları insandan daha doğru şekilde hedef almalarını sağlayan algoritmalar yer alıyor.

Örneğin İsrail'in ‘Demir Kubbe’ adlı hava savunma sistemi, insan müdahalesi olmadan hedeflere saldırabilen silah sistemlerinden biridir.

Demir Kubbe, her ne kadar füzelere karşı hava koruması sağlamak üzere tasarlanmış olsa da kazara insanları da hedef alıp öldürebiliyor. Ancak bu risk, uluslararası siyasi topluluk tarafından kabul edilebilir olarak görülüyor. Çünkü Demir Kubbe hava savunma sistemi sivillerin hayatını korumayı amaçlıyor.

Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)
Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)

Tıpkı Ukrayna savaşında kullanılan muhafız robotlar ve kamikaze İHA’lar gibi yapay zeka destekli robotlar zaten var. Bu yüzden eğer ölümcül otonom silahların kullanımını kontrol altına almak istiyorsak modern silahların tarihini bilmek zorundayız.

Savaş kuralları

Bir savaş sırasında savaş esirlerine ya da sivillere yönelik muameleyi düzenleyen Cenevre Sözleşmesi gibi uluslararası anlaşmaların imzalanması, savaş sürecinde yapılanları kontrol etmeyi amaçlayan araçlardandı.

Ancak ne yazık ki ABD'nin Vietnam'da, Rusya'nın ise Afganistan'da kimyasal silah kullanması bu tür araçların yetersiz olduğunu kanıtladı.

Anti-personel mayınların ve misket bombalarının kullanımının, depolanmasının, üretiminin ve devredilmesinin yasaklanması ve bunların imhasıyla ilgili 1997 yılında imzalanan Ottawa Sözleşmesi’ne 122 ülke taraf oldu. Fakat ABD, Rusya ve Çin, sözleşmeyi imzalamadı.

Kara mayınları 2015 yılında yılda yaklaşık 5 bin askerin ve sivilin ya yaralanmasına ya da ölümüne neden olurken, 2017 yılında bu sayı 9 bin 440 kişiye ulaştı.

Kara Mayınlarının Yasaklanması için Uluslararası Kampanya (ICBL) girişiminin 2022 raporuna göre tam 10 yıl boyunca mayın mağdurlarının sayısı azaldıktan sonra, son 7 yılda bu sayıda bir artış oldu. Bu artışın nedeni, 2015 yılından bu yana çatışmaların ve el yapımı mayın kullanımının artması. Bunun yanında kurbanların çoğu sivil ve yarısı da çocuk.

Rusya ve Ottawa Sözleşmesi’ni imzalayan taraflardan biri olan Ukrayna'nın kara mayınları kullandığına, ayrıca Ukrayna'nın silahlı insansız hava araçlarından (SİHA) yararlandığına ve bunları Rusya’nın altyapısına yönelik kamikaze saldırılarında kullandığına dair kanıtlar var.

Tüm itirazlara rağmen ölümcül otonom silahların yasaklanması iki nedenden dolayı gerçeklerle örtüşmüyor. Bu nedenlerden biri, bu silahların artık tıpkı mayınlar gibi gerçeğe dönüşmüş olmaları, ikincisi ise ölümcül otonom silahlar ile katil robotlar arasındaki farkın bulanıklaşması ve aralarında ayrım yapılmasının zorlaştırması. Askeri yetkililer, yasağı aşmanın yollarını bulacak, katil robotları otomatik savunma silahları olarak sınıflandıracak ve kullanıma sokacaktır.

Gelecekte daha fazla yapay zeka destekli silah sisteminin kullanıldığını göreceğiz. Ancak bu onları görmezden gelmemiz gerektiği anlamına gelmiyor. Politikacıların, veri bilimcilerin ve mühendislerin hesap verebilir olmasına yardımcı olacak açık sınırlamalar getirilmeli. Örneğin yapay zeka sistemlerinde kullanıcının giriş ve çıkışı göremediği bir sistemi olan kara kutu anlayışı yasaklanmalı.

Güvenilir olmayan yapay zeka sistemleri, çalışmaya başlamadan önce iyi bir şekilde test edilmemiş sistemlerdir.



ChatGPT'nin tuhaf takıntısının nedeni ortaya çıktı

Fotoğraf: Unsplash
Fotoğraf: Unsplash
TT

ChatGPT'nin tuhaf takıntısının nedeni ortaya çıktı

Fotoğraf: Unsplash
Fotoğraf: Unsplash

OpenAI, yapay zeka sohbet botu ChatGPT'nin mitolojik yaratıklara takıntılı hale gelmesine neden olan "goblin gizemini" çözdü.

ChatGPT'de alakasız sorulara verilen yanıtlarda bile "goblin" kelimesinden bahsedilme sıklığı son 6 ayda hızla arttı. Bu durum nedeniyle bir soruşturma başlatan OpenAI araştırmacıları, hatanın geçen kasımda yeni ChatGPT modelinin piyasaya sürülmesinin ardından "sinsice sızdığını" saptadı.

Öncüllerine kıyasla "daha akıllı ve daha konuşkan" olacak şekilde tasarlanan yeni model, "Meraklı", "İçten" ve "Sıradışı" gibi çeşitli kişilik ayarları içeriyordu.

Bu modelin yayımlanmasından kısa süre sonra ChatGPT kullanıcıları ve araştırmacılar; goblinler, gremlinler ve diğer fantastik yaratıklardan tekrar tekrar bahsedildiği bir örüntü fark etmeye başladı.

OpenAI konuyla ilgili blog yazısında, "GPT-5.1'den itibaren modellerimiz tuhaf bir alışkanlık geliştirmeye başladı: Metaforlarında giderek daha fazla goblin, gremlin ve diğer yaratıklardan bahsediyorlardı" diye belirtiyor.

Yaratıkların yer aldığı metaforlara bilmeden özellikle yüksek ödüller verdik. Goblinler de buradan yayıldı.

Şirketin güvenlik araştırmacıları GPT-5.1'in yayımlanmasının ardından, modelin eğlenceli metaforlar kullanmaya teşvik edilmesi sonucu "goblin" kelimesinin kullanımında yüzde 175'lik artış olduğunu bildirdi.

Eğitim yöntemi sonraki modeller için düzeltilmedi ve martta GPT-5.4 piyasaya sürüldüğünde "goblin" kullanımı, Meraklı kişilik tipinde neredeyse yüzde 4000 artarken diğer modellerde de aynı oranda artış görüldü.

OpenAI, "Ödüller yalnızca Meraklı kişilik ayarında uygulandı ancak pekiştirmeli öğrenme, öğrenilen davranışların onları üreten koşulla sınırlı kalmasını garanti etmez" ifadelerini kullanıyor.

Bir üslup alışkanlığı ödüllendirildiğinde daha sonraki eğitimler bunu başka yerlere yayabilir veya pekiştirebilir; özellikle de bu çıktılar denetimli ince ayar veya tercih verilerinde yeniden kullanılıyorsa.

Bu örnekteki aksaklık nispeten zararsızdı ancak önde gelen yapay zeka modelleri ve bunların eğitilme ve geliştirilme biçimindeki daha geniş bir kusuru gösteriyor.

Pekiştirmeli öğrenme ve ödül sinyallerinin kullanımı, yapay zeka modellerinin beklenmedik ve istenmeyen biçimlerde davranış değiştirmesine yol açabilir.

OpenAI, araştırma ve güvenlik ekibinin hatalı kalıpları araştırmak için yeni yollar geliştirdiğini ve gelecekte model davranışını daha fazla denetleyeceğini belirtiyor.

Independent Türkçe


SpaceX'e toplu dava: Evlerimiz zarar gördü

Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
TT

SpaceX'e toplu dava: Evlerimiz zarar gördü

Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)
Güney Teksas'taki bazı sakinler, roket fırlatmalarından kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı (AFP)

ABD'nin Teksas eyaletinde onlarca ev sahibi, roket testlerinden kaynaklanan ses patlamalarının evlerine zarar verdiğini iddia ederek Elon Musk'ın SpaceX şirketine dava açtı.

Dava, Güney Teksas'ta yaşayan 80 kişi tarafından geçen hafta federal mahkemeye sunuldu. Texas Tribune'a göre davacılar, SpaceX'i Nisan 2023'le Ekim 2025 arasında gerçekleştirilen 11 roket testinde meydana gelen ses patlamaları nedeniyle ağır ihmal ve izinsiz girişle suçladı.

Dava dilekçesine göre SpaceX testlerinde roketler hem fırlatılıp hem geri döndüğü için evler zaman zaman uzun süre hasar verici düzeyde gürültüye maruz kaldı.

Ses patlaması, ses hızını aşan bir nesne tarafından oluşturulan bir dalgadır. ABD Hava Kuvvetleri'ne göre bazı güçlü ses patlamaları cam kırılması gibi hasarlara neden olabilir.

SpaceX, dava hakkında Tribune'a yanıt vermedi. The Independent da SpaceX'le iletişime geçti.

Sakinler, 2023'teki bir Starship roket fırlatması sırasında, 33 motorlu iticinin yarattığı kuvvetin fırlatma rampasını tahrip ettiğini ve enkazın yaklaşık 1,2 kilometre uzağa fırladığını söylüyor.

Tribune'a göre dava dilekçesinde evlerdeki somut hasarların ayrıntılarına yer verilmedi. Ancak dilekçede ses patlamalarının duvarlara, pencerelere ve çatılara zarar verebileceği belirtildi.

Dilekçede, belirtilmeyen bir miktarda tazminat talep ediliyor.

Tribune'a göre ABD Federal Havacılık İdaresi, 2025'te SpaceX'e Güney Teksas'tan yılda 25'e kadar roket fırlatma yetkisi vermişti. Bu, bir önceki yıla göre 5 kat daha fazlaydı.

SpaceX ayrıca son yıllarda Güney Teksas bölgesinde devasa bir büyüme kaydetti. Şirket çalışanları Mayıs 2025'te Teksas'ta Starbase şehrini kurdu.

Tribune'un belirttiğine göre roket fırlatmaları Güney Teksas'taki fırlatma rampasının yakınındaki sahilin yaklaşık 13 kilometrelik şeridini kapatmış durumda. Bu sorun, şirketin bölgeyi ne sıklıkla kapatabileceği konusunda ayrı bir davaya yol açmıştı.

SpaceX 2002'de kuruldu ve Musk şu anda şirketin CEO'su olarak görev yapıyor. Yakın zamanda ABD Menkul Kıymetler ve Borsa Komisyonu'na (SEC) yapılan bir başvuru, Musk'ın kendisini şirketten görevden alabilme yetkisine sahip tek kişi olduğu ortaya çıkmıştı.

SEC başvurusu, SpaceX'in şirket hisselerini halka arz etmeye hazırlandığı bir dönemde geldi; Wall Street Journal'a göre bu süreç en erken bu yaz başlayabilir.

Independent Türkçe


SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)
TT

SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)

SpaceX'e ait bir roketin enkazının bu yazın sonunda ses hızının 7 katıyla Ay'a çarpması bekleniyor.

Dünya'ya yakın cisimleri izlemek için geniş çapta kullanılan Project Pluto yazılımının üreticisi Bill Gray, SpaceX'in Ocak 2025'te fırlattığı bir Falcon 9 roketi üzerine kapsamlı bir rapor yayımladı.

Roket geçen yıl Ay'a Blue Ghost ve Hakuto-R uzay araçlarını götürmüş, bunlardan ilki başarılı bir iniş yaparken diğeriyse Dünya'yla bağlantısını kaybedip haziranda uyduya düşmüştü.

Gray'in raporuna  göre geçen yıl boyunca 1053 kez gözlemlenen Falcon 9'un üst kademesi, Dünya yörüngesinde dönmeye devam ediyor.

Bu verilere dayanarak yapılan tahminlere göre roketin 13,8 metre uzunluğa ve 3,7 metre çapa sahip üst kademesi, 5 Ağustos'ta TSİ 09.44'te Ay'ın Dünya'ya dönük yüzünün kenarındaki Einstein kraterine çarpacak. Cismin saniyede 2,43 kilometre hızla, yani sesin Dünya'daki hızının 7 katı hızla çarpacağı öngörülüyor.

Ay'ın atmosferi olmadığı için roket tek parça halinde yüzeye ulaşacak. Ancak bölgede yaşam veya insan yapımı cihazlar olmadığı için uzmanlar bu çarpışmanın bir risk yaratmadığını belirtiyor.

Gray raporda "Bu durum bilimsel açıdan bir miktar (muhtemelen küçük çaplı) ilgi çekebilir ve buradan bazı şeyler öğrenebiliriz" diyerek ekliyor: 

Kimseye herhangi bir tehlike arz etmiyor ancak uzayda kalan donanımların (uzay çöpü) elden çıkarılma şekliyle ilgili belirli bir dikkatsizliği ortaya koyuyor.

Çarpışmanın düşük şiddetinden dolayı Dünya'daki teleskoplarla görülemeyeceği düşünülüyor. Bu nedenle bilim insanlarının bir şeyler öğrenmek için ardında bıraktığı krateri incelemesi gerekecek.

Gray, 2022'de de bir roket parçasının Ay'a çarpacağını tahmin etmiş ve sadece birkaç saniye ve kilometreyle yanılmıştı. 

Falcon 9'un parçası halihazırda bir risk yaratmasa da gelecek yıllarda durum değişebilir. Artemis II görevini başarıyla tamamlayan NASA, gelecek yıllarda Ay'a daha sık gitmeyi planlıyor. Çin de 2030'da taykonotlarını uyduya indirme hazırlığı yapıyor.

Ay'da kalıcı üsler kurma planları nedeniyle kısa süre içinde çeşitli noktalar mürettebat ve uzay araçlarıyla dolup taşabilir.

Bu nedenle roketlerin kullanılmış kısımlarının Ay veya Dünya'ya çarpma ihtimalini ortadan kaldırmak için Güneş'in yörüngesine gönderilmesi öneriliyor. 

Independent Türkçe, Live Science, Ars Technica, Project Pluto