Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
TT

Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)

Katil robotları veya resmi adıyla ‘ölümcül otonom silahları’ romanlarda ya da bilim-kurgu filmlerinde görmüş yahut duymuş olmalısınız.

“İnsanları rastgele öldüren son derece akıllı silah” fikri, halen bir bilim-kurgu efsanesi olarak görülse de yapay zekaya dayalı silahlar oldukça kafa karıştırıcı hale geldi. Bu da bazı kesimlerde, hesap verilebilirliğin olmamasına ve teknoloji alanında hatalar yapılmasına karşı ciddi bir endişe ve korku yarattı.

Tarafsız olması gereken yapay zekanın cinsiyete dayalı algoritmalar ve yetersiz olan içerik denetleme sistemleri ürettiğini görmüştük. Şarku’l Avsat’ı  The Conversation internet sitesinde yayınlanan  makaleden aktardığına göre yapay zeka sistemlerinin yapımcıları ellerindeki teknolojinin yapabileceklerini tam olarak idrak edemediler. Öte yandan bu alanda yapılacak olası hatalar, savaş zamanlarında sivillerin ölümüne ya da savaşan taraflar arasındaki müzakerelerin bozulmasına neden olabilir.

Örneğin, yapay zekanın hedefi tanımlama algoritmaları, tankları etrafında askerlerle birlikte gösteren uydu görüntüleriyle eğitilirse bir hata yapıp askeri bir kontrol noktasından geçen sivil bir aracı, çevresinde askerler bulunan bir tank olduğunu düşünerek hedef alabilir.

Gerçekten otonom silahlara ihtiyacımız var mı?

Birçok ülkede çok sayıda sivil, süper güçlerin gelişmiş silahlar üretme yöntemlerinden kaynaklanan büyük acılar çekti. Pek çok insan, daha kısa bir süre önce, 2022 yılı başlarında Rusya'nın Ukrayna'yı işgal için açtığı savaşa atıfla bu silahların yarardan çok zarara yol açtığını düşünüyorlar.

Rakip taraf, her ülkenin kendisini koruyabilmesi, yani diğer ülkelerin başardığı askeri teknolojiye ayak uydurabilmesi gerektiğine inanıyor. Yapay zeka satranç ve poker gibi oyunlarda insan karşısında zafer kazandı. Aynı zamanda gerçek hayatta da insanlardan daha iyi performans gösteriyor.

Microsoft’a göre kelime tanıma yazılımının hata oranı yüzde 1’ken, insanların hata yapma oranının yüzde 6 olduğundan orduların silahların kullanımı konusunda inisiyatifi yavaş yavaş algoritmalara devretmesi şaşırtıcı değil.

Ölümcül otonom silahlar neler?

ABD Savunma Bakanlığı, ölümcül otonom silahları, ‘insan müdahalesi olmadan hedefleri tespit edip bunlara saldırabilen silah sistemleri’ olarak tanımlıyor.

Bu tanım birçok savaş sistemi için geçerli. İnsansız hava araçlarındaki (İHA) ve bazı modern füzelerdeki bilgisayar sistemleri, hedefleri tespit etmelerini ve tespit edilen bu noktaları insandan daha doğru şekilde hedef almalarını sağlayan algoritmalar yer alıyor.

Örneğin İsrail'in ‘Demir Kubbe’ adlı hava savunma sistemi, insan müdahalesi olmadan hedeflere saldırabilen silah sistemlerinden biridir.

Demir Kubbe, her ne kadar füzelere karşı hava koruması sağlamak üzere tasarlanmış olsa da kazara insanları da hedef alıp öldürebiliyor. Ancak bu risk, uluslararası siyasi topluluk tarafından kabul edilebilir olarak görülüyor. Çünkü Demir Kubbe hava savunma sistemi sivillerin hayatını korumayı amaçlıyor.

Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)
Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)

Tıpkı Ukrayna savaşında kullanılan muhafız robotlar ve kamikaze İHA’lar gibi yapay zeka destekli robotlar zaten var. Bu yüzden eğer ölümcül otonom silahların kullanımını kontrol altına almak istiyorsak modern silahların tarihini bilmek zorundayız.

Savaş kuralları

Bir savaş sırasında savaş esirlerine ya da sivillere yönelik muameleyi düzenleyen Cenevre Sözleşmesi gibi uluslararası anlaşmaların imzalanması, savaş sürecinde yapılanları kontrol etmeyi amaçlayan araçlardandı.

Ancak ne yazık ki ABD'nin Vietnam'da, Rusya'nın ise Afganistan'da kimyasal silah kullanması bu tür araçların yetersiz olduğunu kanıtladı.

Anti-personel mayınların ve misket bombalarının kullanımının, depolanmasının, üretiminin ve devredilmesinin yasaklanması ve bunların imhasıyla ilgili 1997 yılında imzalanan Ottawa Sözleşmesi’ne 122 ülke taraf oldu. Fakat ABD, Rusya ve Çin, sözleşmeyi imzalamadı.

Kara mayınları 2015 yılında yılda yaklaşık 5 bin askerin ve sivilin ya yaralanmasına ya da ölümüne neden olurken, 2017 yılında bu sayı 9 bin 440 kişiye ulaştı.

Kara Mayınlarının Yasaklanması için Uluslararası Kampanya (ICBL) girişiminin 2022 raporuna göre tam 10 yıl boyunca mayın mağdurlarının sayısı azaldıktan sonra, son 7 yılda bu sayıda bir artış oldu. Bu artışın nedeni, 2015 yılından bu yana çatışmaların ve el yapımı mayın kullanımının artması. Bunun yanında kurbanların çoğu sivil ve yarısı da çocuk.

Rusya ve Ottawa Sözleşmesi’ni imzalayan taraflardan biri olan Ukrayna'nın kara mayınları kullandığına, ayrıca Ukrayna'nın silahlı insansız hava araçlarından (SİHA) yararlandığına ve bunları Rusya’nın altyapısına yönelik kamikaze saldırılarında kullandığına dair kanıtlar var.

Tüm itirazlara rağmen ölümcül otonom silahların yasaklanması iki nedenden dolayı gerçeklerle örtüşmüyor. Bu nedenlerden biri, bu silahların artık tıpkı mayınlar gibi gerçeğe dönüşmüş olmaları, ikincisi ise ölümcül otonom silahlar ile katil robotlar arasındaki farkın bulanıklaşması ve aralarında ayrım yapılmasının zorlaştırması. Askeri yetkililer, yasağı aşmanın yollarını bulacak, katil robotları otomatik savunma silahları olarak sınıflandıracak ve kullanıma sokacaktır.

Gelecekte daha fazla yapay zeka destekli silah sisteminin kullanıldığını göreceğiz. Ancak bu onları görmezden gelmemiz gerektiği anlamına gelmiyor. Politikacıların, veri bilimcilerin ve mühendislerin hesap verebilir olmasına yardımcı olacak açık sınırlamalar getirilmeli. Örneğin yapay zeka sistemlerinde kullanıcının giriş ve çıkışı göremediği bir sistemi olan kara kutu anlayışı yasaklanmalı.

Güvenilir olmayan yapay zeka sistemleri, çalışmaya başlamadan önce iyi bir şekilde test edilmemiş sistemlerdir.



Batılı teknoloji devleri, Çin üretimi yapay zekaya yöneliyor

Çin'de geliştirilen DeepSeek, Batı'da "veri casusluğu" endişesi yaratmıştı (Reuters)
Çin'de geliştirilen DeepSeek, Batı'da "veri casusluğu" endişesi yaratmıştı (Reuters)
TT

Batılı teknoloji devleri, Çin üretimi yapay zekaya yöneliyor

Çin'de geliştirilen DeepSeek, Batı'da "veri casusluğu" endişesi yaratmıştı (Reuters)
Çin'de geliştirilen DeepSeek, Batı'da "veri casusluğu" endişesi yaratmıştı (Reuters)

Batılı ülkelerdeki büyük firmalar, Çin üretimi yapay zeka modellerini kullanmaya yöneliyor.

Wall Street Journal’ın (WSJ) analizinde, Amazon Web Services, Microsoft ve Google gibi Amerikan devlerinin, müşterilerine DeepSeek’i bir seçenek olarak sunmaya başladığını yazıyor.

Bu durumun, ABD hükümetinin veri güvenliği nedeniyle Çinli DeepSeek firmasının bazı uygulamalarını devlet cihazlarında yasaklamasına rağmen gerçekleştiğine işaret ediliyor.

Analiz firması Sensor Tower’ın verilerine göre, ABD’li OpenAI firmasının ürettiği ChatGPT en popüler yapay zeka destekli sohbet botu olma özelliğini koruyor. Küresel çapta uygulamanın 910 milyon kez indirildiği belirtiliyor. Çinli mühendislerin tasarladığı DeepSeek ise 125 milyon kez indirildi.

Harvard Üniversitesi’nin haziranda yayımladığı bir çalışmada, Çin’in yapay zekada öne çıkmasını sağlayan iki temel unsurun veri zenginliği ve insan sermayesi olduğu belirtilmişti.

WSJ’nin analizine göre de Amerikan şirketleri daha çok “yapay genel zeka” (AGI) gibi devrimsel ilerlemelere yoğunlaşırken, Çinli firmalar pratik uygulamalarla günlük sorunları çözmeye odaklanıyor. Çinli şirketler aynı zamanda modellerini açık kaynak olarak sunuyor. Bu sayede kullanıcılar modelleri kendi ihtiyaçlarına göre uyarlayabiliyor.

Alibaba’nın “Qwen” adlı açık kaynak modelinin dünya genelinde 100 binden fazla türevi geliştirildi. Haberde, Japonya Ekonomi Bakanlığı için özel yazılımlar geliştiren Tokyo merkezli Abeja şirketinin Google ve Meta yerine Qwen’i tercih ettiğine dikkat çekiliyor.

DeepSeek, diğer yapay zeka şirketlerine kıyasla düşük maliyetle ve az sayıda çip kullanarak geliştirdiği açık kaynaklı yeni modeli DeepSeek-R1'i, 20 Ocak'ta piyasaya sürmüştü. ABD’li şirketlerle yarışan modelleri daha ucuza geliştirip sattığını öne süren DeepSeek, Nvidia'dan Microsoft'a kadar teknoloji devlerinin yüzlerce milyar dolar değer kaybetmesine neden olmuştu.

Batılı ülkeler, DeepSeek’in siber güvenliği ihlal ettiğini ve verilerin Pekin yönetimiyle paylaşılmasını sağladığını öne sürmüş, firmaysa iddiaları yalanlamıştı.

Güney Afrika’daki Witwatersrand Üniversitesi, DeepSeek’in diğer yapay zeka modellerine göre daha iyi veri güvenliği sağladığını savunuyor. Üniversite yetkililerinden Tarık Surtee, “Açık kaynaklı olması ve çevrimdışı kullanılabilmesi, verilerimizi koruyor” diyor.

Independent Türkçe, Wall Street Journal, RT