Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
TT

Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)

Katil robotları veya resmi adıyla ‘ölümcül otonom silahları’ romanlarda ya da bilim-kurgu filmlerinde görmüş yahut duymuş olmalısınız.

“İnsanları rastgele öldüren son derece akıllı silah” fikri, halen bir bilim-kurgu efsanesi olarak görülse de yapay zekaya dayalı silahlar oldukça kafa karıştırıcı hale geldi. Bu da bazı kesimlerde, hesap verilebilirliğin olmamasına ve teknoloji alanında hatalar yapılmasına karşı ciddi bir endişe ve korku yarattı.

Tarafsız olması gereken yapay zekanın cinsiyete dayalı algoritmalar ve yetersiz olan içerik denetleme sistemleri ürettiğini görmüştük. Şarku’l Avsat’ı  The Conversation internet sitesinde yayınlanan  makaleden aktardığına göre yapay zeka sistemlerinin yapımcıları ellerindeki teknolojinin yapabileceklerini tam olarak idrak edemediler. Öte yandan bu alanda yapılacak olası hatalar, savaş zamanlarında sivillerin ölümüne ya da savaşan taraflar arasındaki müzakerelerin bozulmasına neden olabilir.

Örneğin, yapay zekanın hedefi tanımlama algoritmaları, tankları etrafında askerlerle birlikte gösteren uydu görüntüleriyle eğitilirse bir hata yapıp askeri bir kontrol noktasından geçen sivil bir aracı, çevresinde askerler bulunan bir tank olduğunu düşünerek hedef alabilir.

Gerçekten otonom silahlara ihtiyacımız var mı?

Birçok ülkede çok sayıda sivil, süper güçlerin gelişmiş silahlar üretme yöntemlerinden kaynaklanan büyük acılar çekti. Pek çok insan, daha kısa bir süre önce, 2022 yılı başlarında Rusya'nın Ukrayna'yı işgal için açtığı savaşa atıfla bu silahların yarardan çok zarara yol açtığını düşünüyorlar.

Rakip taraf, her ülkenin kendisini koruyabilmesi, yani diğer ülkelerin başardığı askeri teknolojiye ayak uydurabilmesi gerektiğine inanıyor. Yapay zeka satranç ve poker gibi oyunlarda insan karşısında zafer kazandı. Aynı zamanda gerçek hayatta da insanlardan daha iyi performans gösteriyor.

Microsoft’a göre kelime tanıma yazılımının hata oranı yüzde 1’ken, insanların hata yapma oranının yüzde 6 olduğundan orduların silahların kullanımı konusunda inisiyatifi yavaş yavaş algoritmalara devretmesi şaşırtıcı değil.

Ölümcül otonom silahlar neler?

ABD Savunma Bakanlığı, ölümcül otonom silahları, ‘insan müdahalesi olmadan hedefleri tespit edip bunlara saldırabilen silah sistemleri’ olarak tanımlıyor.

Bu tanım birçok savaş sistemi için geçerli. İnsansız hava araçlarındaki (İHA) ve bazı modern füzelerdeki bilgisayar sistemleri, hedefleri tespit etmelerini ve tespit edilen bu noktaları insandan daha doğru şekilde hedef almalarını sağlayan algoritmalar yer alıyor.

Örneğin İsrail'in ‘Demir Kubbe’ adlı hava savunma sistemi, insan müdahalesi olmadan hedeflere saldırabilen silah sistemlerinden biridir.

Demir Kubbe, her ne kadar füzelere karşı hava koruması sağlamak üzere tasarlanmış olsa da kazara insanları da hedef alıp öldürebiliyor. Ancak bu risk, uluslararası siyasi topluluk tarafından kabul edilebilir olarak görülüyor. Çünkü Demir Kubbe hava savunma sistemi sivillerin hayatını korumayı amaçlıyor.

Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)
Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)

Tıpkı Ukrayna savaşında kullanılan muhafız robotlar ve kamikaze İHA’lar gibi yapay zeka destekli robotlar zaten var. Bu yüzden eğer ölümcül otonom silahların kullanımını kontrol altına almak istiyorsak modern silahların tarihini bilmek zorundayız.

Savaş kuralları

Bir savaş sırasında savaş esirlerine ya da sivillere yönelik muameleyi düzenleyen Cenevre Sözleşmesi gibi uluslararası anlaşmaların imzalanması, savaş sürecinde yapılanları kontrol etmeyi amaçlayan araçlardandı.

Ancak ne yazık ki ABD'nin Vietnam'da, Rusya'nın ise Afganistan'da kimyasal silah kullanması bu tür araçların yetersiz olduğunu kanıtladı.

Anti-personel mayınların ve misket bombalarının kullanımının, depolanmasının, üretiminin ve devredilmesinin yasaklanması ve bunların imhasıyla ilgili 1997 yılında imzalanan Ottawa Sözleşmesi’ne 122 ülke taraf oldu. Fakat ABD, Rusya ve Çin, sözleşmeyi imzalamadı.

Kara mayınları 2015 yılında yılda yaklaşık 5 bin askerin ve sivilin ya yaralanmasına ya da ölümüne neden olurken, 2017 yılında bu sayı 9 bin 440 kişiye ulaştı.

Kara Mayınlarının Yasaklanması için Uluslararası Kampanya (ICBL) girişiminin 2022 raporuna göre tam 10 yıl boyunca mayın mağdurlarının sayısı azaldıktan sonra, son 7 yılda bu sayıda bir artış oldu. Bu artışın nedeni, 2015 yılından bu yana çatışmaların ve el yapımı mayın kullanımının artması. Bunun yanında kurbanların çoğu sivil ve yarısı da çocuk.

Rusya ve Ottawa Sözleşmesi’ni imzalayan taraflardan biri olan Ukrayna'nın kara mayınları kullandığına, ayrıca Ukrayna'nın silahlı insansız hava araçlarından (SİHA) yararlandığına ve bunları Rusya’nın altyapısına yönelik kamikaze saldırılarında kullandığına dair kanıtlar var.

Tüm itirazlara rağmen ölümcül otonom silahların yasaklanması iki nedenden dolayı gerçeklerle örtüşmüyor. Bu nedenlerden biri, bu silahların artık tıpkı mayınlar gibi gerçeğe dönüşmüş olmaları, ikincisi ise ölümcül otonom silahlar ile katil robotlar arasındaki farkın bulanıklaşması ve aralarında ayrım yapılmasının zorlaştırması. Askeri yetkililer, yasağı aşmanın yollarını bulacak, katil robotları otomatik savunma silahları olarak sınıflandıracak ve kullanıma sokacaktır.

Gelecekte daha fazla yapay zeka destekli silah sisteminin kullanıldığını göreceğiz. Ancak bu onları görmezden gelmemiz gerektiği anlamına gelmiyor. Politikacıların, veri bilimcilerin ve mühendislerin hesap verebilir olmasına yardımcı olacak açık sınırlamalar getirilmeli. Örneğin yapay zeka sistemlerinde kullanıcının giriş ve çıkışı göremediği bir sistemi olan kara kutu anlayışı yasaklanmalı.

Güvenilir olmayan yapay zeka sistemleri, çalışmaya başlamadan önce iyi bir şekilde test edilmemiş sistemlerdir.



Gazze, İsrail'in yapay zeka teknolojilerini test ettiği bir alana dönüştü

İsrail ordusunun Matzpen teknoloji birimi (Reuters)
İsrail ordusunun Matzpen teknoloji birimi (Reuters)
TT

Gazze, İsrail'in yapay zeka teknolojilerini test ettiği bir alana dönüştü

İsrail ordusunun Matzpen teknoloji birimi (Reuters)
İsrail ordusunun Matzpen teknoloji birimi (Reuters)

İnci Mecdi

İsrail tarafından geliştirilen ve 7 Ekim 2023 tarihinden bu yana Gazze’deki savaş sırasında Hamas liderlerinin yerini tespit etmek için kullanılan yapay zeka (AI) teknolojileri, özellikle de İsrail'e askeri bir avantaj sağlayan bu teknolojilerin kullanılmasının feci sonuçları göz önüne alındığında, giderek artan etik kaygılara yol açıyor.

İsrailli ve ABD’li yetkililerin ABD merkezli New York Times (NYT) gazetesine verdiği bilgilere göre İsrailli subaylar yapay zeka tabanlı askeri teknolojiyi ilk kez 2023 yılının sonlarında, 7 Ekim 2023 saldırılarının planlanmasına yardımcı olan Hamas’ın üst düzey liderlerinden İbrahim el-Bayari'ye suikast düzenlemek için kullandı. İsrail istihbaratı, Gazze Şeridi'nin altındaki tünellerde saklandığına inanılan Bayari’nin yerini başlangıçta tespit edemedi. Bu da on yıl önce savaşta kullanılmadan geliştirilmiş olan aracı geliştirmek için yeni bir teşvik sağladı. İçeridekilere göre Birim 8200 mühendisleri yapay zekayı bu araca dahil etmekte gecikmedi. İsrail kısa süre içinde Bayari'nin aramalarını dinleyebildi ve aramaların yapıldığı yerin yaklaşık konumunu veren sesli yapay zeka aracını test etti. İsrail bu bilgiyi kullanarak 31 Ekim 2023'te bölgeyi hedef alan hava saldırıları düzenledi ve Bayari'yi öldürdü.

“The Studio”

Ancak İsrail'in savaş sırasında kullandığı yapay zeka teknolojileri önemli sivil kayıplara yol açtı. Şarku’l Avsat’ın Londra merkezli çatışma izleme kuruluşu Airwars'tan aktardığı verilere göre Bayari'ye yapılan saldırıda 125'ten fazla sivil öldü. Kimliklerinin gizli kalması şartıyla NYT’ye konuşan ABD ve İsrailli dokuz yetkilinin açıklamalarına göre Bayari suikastı için düzenlenen hava saldırısında 125'ten fazla sivil öldürüldü. Bunun için kullanılan sonik araç, İsrail'in Gazze'deki savaşı yapay zeka destekli askeri teknolojileri dünyanın daha önce hiç görmediği bir hızda test etmek ve uygulamak için nasıl kullandığının sadece bir örneğiydi.

İsrail, geçtiğimiz 18 ay boyunca kısmen gizlenmiş ya da yaralanmış olan yüzleri gerçek kimliklerle eşleştirmek için yapay zekayı yüz tanıma yazılımına da entegre etti. Potansiyel hava saldırısı hedeflerini gruplandırmak için yapay zekayı kullandı. İki kaynağa göre, mesajları, sosyal medya gönderilerini ve Arapça diğer verileri toplayıp analiz edebilen bir sohbet robotunu güçlendirmek için Arapça bir yapay zeka modeli oluşturdu.

NYT'ye konuşan ve söz konusu teknolojiler hakkında bilgi sahibi olan kişilere göre bu çabaların çoğu Birim 8200'de görevlendirilen askerler ile Google, Microsoft ve Meta gibi teknoloji şirketlerinde çalışan yedek askerler arasında bir ortaklığın da önünü açtı. Kaynaklar, Birim 8200'ün bir inovasyon merkezi ve uzmanların yapay zeka projeleriyle eşleştirildiği bir yer olan The Studio'yu oluşturduğunu söyledi.

Yedek askerler

İsrailli yetkililer, Hamas'ın 7 Ekim 2023'te İsrail'e sınır ötesi saldırılar düzenleyerek bin 200'den fazla kişiyi öldürmesi ve 250’den fazla kişiyi rehin almasının ardından, Birim 8200 ile The Studio’daki yedek askerler arasındaki iş birliğinin hızla yeni yapay zeka teknolojileri geliştirmesine izin verildiğini açıkladı. Yatırımcıları şirketlerle buluşturan ve kâr amacı gütmeyen İsrailli bir kuruluş olan Startup Nation Central'ın CEO'su Avi Hasson, META, Google ve Microsoft'ta çalışan İsrailli yedek askerlerin insansız hava araçları (İHA) ve veri füzyonu (bilgi bütünleştirme) alanlarında inovasyonu teşvik eden kilit unsurlar haline geldiğini söyledi. Yedek subaylar teknik bilgi birikimi ve orduda bulunmayan kilit teknolojilere erişim sağladılar.

İsrail ordusu İHA filosunu güçlendirmek için de hızla yapay zekayı kullandı. İsrail ordusuyla birlikte çalışan bir yazılım ve yürüyüş şirketi olan XTEND’ın kurucusu ve CEO'su Aviv Shapira, hedefleri uzaktan tanımlayan ve takip eden İHA’lar geliştirmek için yapay zeka algoritmalarının kullanıldığını söyledi.

İsrailli ve ABD'li yetkililere göre İsrail yapay zeka tabanlı cephaneliğini geliştirmek için yarışırken bile, bu teknolojilerin kullanılması bazen yanlış kimliklere, tutuklamalara ve sivil ölümlerine yol açtı. Bazıları, gözetimin artmasına ve sivillerin öldürülmesine yol açabilecek yapay zekanın etik sonuçları hakkında tartışırken Avrupalı ve ABD'li savunma yetkilileri, başka hiçbir ülkenin mevcut savaşlar sırasında yapay zeka araçlarını denemede İsrail kadar aktif olmadığını ve bu teknolojilerin gelecekteki savaşlarda nasıl kullanılabileceğine ve nasıl başarısız olabileceklerine dair bir fikir verdiğini söyledi.

Geniş dil modeli

The Studio tarafından geliştirilen araçlardan biri de geniş dil modeli olarak bilinen Arapça yapay zeka modeliydi. Konuyla ilgili bilgi sahibi İsrailli subaylara göre ülkede onlarca yıldır Arapça konuşulan lehçelerde ele geçirilmiş kısa mesajlar (SMS), telefon görüşmeleri ve sosyal medya paylaşımları bulunuyor. Bu yüzden İsrailli subaylar savaşın ilk birkaç ayında geniş bir dil modeli oluşturdular ve Arapça sorgular yapmak için bir chatbot geliştirdiler. ABD’li ve İsrailli yetkililerin dördü, aracın multimedya veri tabanlarıyla entegre edilerek analistlerin görüntü ve videolar üzerinde karmaşık aramalar yapabilmelerinin sağlandığını söyledi.

İsrailli üç subaya göre İsrail geçtiğimiz eylül ayında Hizbullah lideri Hasan Nasrallah'a suikast düzenlediğinde, bahsi geçen chatbot Arap dünyasındaki tepkileri analiz etti. Teknoloji, halkın tepkilerini ölçmek için Lübnan'daki farklı lehçeleri ayırt ederek İsrail'in karşı saldırı başlatmak için kamuoyu baskısı olup olmadığını değerlendirmesine yardımcı oldu. Ancak iki subaydan biri, chatbotun bazen İngilizceden Arapçaya çevrilen bazı modern argo terimleri ve kelimeleri tanımlayamadığını, bunun da farklı lehçelerde uzman İsrailli istihbarat subaylarının çalışmasını gözden geçirip düzeltmesini gerektirdiğini belirtti.

İsrailli iki istihbarat yetkilisine göre chatbot bazen yanlış cevaplar verdi. Aynı yetkililer, chatbotun örneğin tüfekleri boru olarak gösterdiğini, ancak yapay zeka aracının araştırma ve analizi büyük ölçüde hızlandırdığını söylediler.

İsrail ayrıca 7 Ekim 2023 saldırılarından sonra Gazze Şeridi'nin kuzeyi ve güneyi arasında kurulan geçici kontrol noktalarına, Filistinlilerin yüksek çözünürlüklü görüntülerini tarayıp yapay zeka destekli yüz tanıma yazılımına gönderme özelliğine sahip kameralar yerleştirmeye başladı. Ancak sistem, zaman zaman yüzleri gizlenmiş kişileri tanımlamakta zorlandı. Bu durum, yüz tanıma sistemi tarafından yanlışlıkla teşhis edilen Filistinlilerin tutuklanmasına ve sorgulanmasına yol açtı.