Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
TT

Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)

Katil robotları veya resmi adıyla ‘ölümcül otonom silahları’ romanlarda ya da bilim-kurgu filmlerinde görmüş yahut duymuş olmalısınız.

“İnsanları rastgele öldüren son derece akıllı silah” fikri, halen bir bilim-kurgu efsanesi olarak görülse de yapay zekaya dayalı silahlar oldukça kafa karıştırıcı hale geldi. Bu da bazı kesimlerde, hesap verilebilirliğin olmamasına ve teknoloji alanında hatalar yapılmasına karşı ciddi bir endişe ve korku yarattı.

Tarafsız olması gereken yapay zekanın cinsiyete dayalı algoritmalar ve yetersiz olan içerik denetleme sistemleri ürettiğini görmüştük. Şarku’l Avsat’ı  The Conversation internet sitesinde yayınlanan  makaleden aktardığına göre yapay zeka sistemlerinin yapımcıları ellerindeki teknolojinin yapabileceklerini tam olarak idrak edemediler. Öte yandan bu alanda yapılacak olası hatalar, savaş zamanlarında sivillerin ölümüne ya da savaşan taraflar arasındaki müzakerelerin bozulmasına neden olabilir.

Örneğin, yapay zekanın hedefi tanımlama algoritmaları, tankları etrafında askerlerle birlikte gösteren uydu görüntüleriyle eğitilirse bir hata yapıp askeri bir kontrol noktasından geçen sivil bir aracı, çevresinde askerler bulunan bir tank olduğunu düşünerek hedef alabilir.

Gerçekten otonom silahlara ihtiyacımız var mı?

Birçok ülkede çok sayıda sivil, süper güçlerin gelişmiş silahlar üretme yöntemlerinden kaynaklanan büyük acılar çekti. Pek çok insan, daha kısa bir süre önce, 2022 yılı başlarında Rusya'nın Ukrayna'yı işgal için açtığı savaşa atıfla bu silahların yarardan çok zarara yol açtığını düşünüyorlar.

Rakip taraf, her ülkenin kendisini koruyabilmesi, yani diğer ülkelerin başardığı askeri teknolojiye ayak uydurabilmesi gerektiğine inanıyor. Yapay zeka satranç ve poker gibi oyunlarda insan karşısında zafer kazandı. Aynı zamanda gerçek hayatta da insanlardan daha iyi performans gösteriyor.

Microsoft’a göre kelime tanıma yazılımının hata oranı yüzde 1’ken, insanların hata yapma oranının yüzde 6 olduğundan orduların silahların kullanımı konusunda inisiyatifi yavaş yavaş algoritmalara devretmesi şaşırtıcı değil.

Ölümcül otonom silahlar neler?

ABD Savunma Bakanlığı, ölümcül otonom silahları, ‘insan müdahalesi olmadan hedefleri tespit edip bunlara saldırabilen silah sistemleri’ olarak tanımlıyor.

Bu tanım birçok savaş sistemi için geçerli. İnsansız hava araçlarındaki (İHA) ve bazı modern füzelerdeki bilgisayar sistemleri, hedefleri tespit etmelerini ve tespit edilen bu noktaları insandan daha doğru şekilde hedef almalarını sağlayan algoritmalar yer alıyor.

Örneğin İsrail'in ‘Demir Kubbe’ adlı hava savunma sistemi, insan müdahalesi olmadan hedeflere saldırabilen silah sistemlerinden biridir.

Demir Kubbe, her ne kadar füzelere karşı hava koruması sağlamak üzere tasarlanmış olsa da kazara insanları da hedef alıp öldürebiliyor. Ancak bu risk, uluslararası siyasi topluluk tarafından kabul edilebilir olarak görülüyor. Çünkü Demir Kubbe hava savunma sistemi sivillerin hayatını korumayı amaçlıyor.

Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)
Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)

Tıpkı Ukrayna savaşında kullanılan muhafız robotlar ve kamikaze İHA’lar gibi yapay zeka destekli robotlar zaten var. Bu yüzden eğer ölümcül otonom silahların kullanımını kontrol altına almak istiyorsak modern silahların tarihini bilmek zorundayız.

Savaş kuralları

Bir savaş sırasında savaş esirlerine ya da sivillere yönelik muameleyi düzenleyen Cenevre Sözleşmesi gibi uluslararası anlaşmaların imzalanması, savaş sürecinde yapılanları kontrol etmeyi amaçlayan araçlardandı.

Ancak ne yazık ki ABD'nin Vietnam'da, Rusya'nın ise Afganistan'da kimyasal silah kullanması bu tür araçların yetersiz olduğunu kanıtladı.

Anti-personel mayınların ve misket bombalarının kullanımının, depolanmasının, üretiminin ve devredilmesinin yasaklanması ve bunların imhasıyla ilgili 1997 yılında imzalanan Ottawa Sözleşmesi’ne 122 ülke taraf oldu. Fakat ABD, Rusya ve Çin, sözleşmeyi imzalamadı.

Kara mayınları 2015 yılında yılda yaklaşık 5 bin askerin ve sivilin ya yaralanmasına ya da ölümüne neden olurken, 2017 yılında bu sayı 9 bin 440 kişiye ulaştı.

Kara Mayınlarının Yasaklanması için Uluslararası Kampanya (ICBL) girişiminin 2022 raporuna göre tam 10 yıl boyunca mayın mağdurlarının sayısı azaldıktan sonra, son 7 yılda bu sayıda bir artış oldu. Bu artışın nedeni, 2015 yılından bu yana çatışmaların ve el yapımı mayın kullanımının artması. Bunun yanında kurbanların çoğu sivil ve yarısı da çocuk.

Rusya ve Ottawa Sözleşmesi’ni imzalayan taraflardan biri olan Ukrayna'nın kara mayınları kullandığına, ayrıca Ukrayna'nın silahlı insansız hava araçlarından (SİHA) yararlandığına ve bunları Rusya’nın altyapısına yönelik kamikaze saldırılarında kullandığına dair kanıtlar var.

Tüm itirazlara rağmen ölümcül otonom silahların yasaklanması iki nedenden dolayı gerçeklerle örtüşmüyor. Bu nedenlerden biri, bu silahların artık tıpkı mayınlar gibi gerçeğe dönüşmüş olmaları, ikincisi ise ölümcül otonom silahlar ile katil robotlar arasındaki farkın bulanıklaşması ve aralarında ayrım yapılmasının zorlaştırması. Askeri yetkililer, yasağı aşmanın yollarını bulacak, katil robotları otomatik savunma silahları olarak sınıflandıracak ve kullanıma sokacaktır.

Gelecekte daha fazla yapay zeka destekli silah sisteminin kullanıldığını göreceğiz. Ancak bu onları görmezden gelmemiz gerektiği anlamına gelmiyor. Politikacıların, veri bilimcilerin ve mühendislerin hesap verebilir olmasına yardımcı olacak açık sınırlamalar getirilmeli. Örneğin yapay zeka sistemlerinde kullanıcının giriş ve çıkışı göremediği bir sistemi olan kara kutu anlayışı yasaklanmalı.

Güvenilir olmayan yapay zeka sistemleri, çalışmaya başlamadan önce iyi bir şekilde test edilmemiş sistemlerdir.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging