Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
TT

Gelecekteki savaşlara bir bakış: Katil robotlar ve ölümcül otonom silahlar

Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)
Pekin'de düzenlenen Dünya Robot Konferansı’nda insanların yüz ifadelerini taklit eden robotlar (EPA)

Katil robotları veya resmi adıyla ‘ölümcül otonom silahları’ romanlarda ya da bilim-kurgu filmlerinde görmüş yahut duymuş olmalısınız.

“İnsanları rastgele öldüren son derece akıllı silah” fikri, halen bir bilim-kurgu efsanesi olarak görülse de yapay zekaya dayalı silahlar oldukça kafa karıştırıcı hale geldi. Bu da bazı kesimlerde, hesap verilebilirliğin olmamasına ve teknoloji alanında hatalar yapılmasına karşı ciddi bir endişe ve korku yarattı.

Tarafsız olması gereken yapay zekanın cinsiyete dayalı algoritmalar ve yetersiz olan içerik denetleme sistemleri ürettiğini görmüştük. Şarku’l Avsat’ı  The Conversation internet sitesinde yayınlanan  makaleden aktardığına göre yapay zeka sistemlerinin yapımcıları ellerindeki teknolojinin yapabileceklerini tam olarak idrak edemediler. Öte yandan bu alanda yapılacak olası hatalar, savaş zamanlarında sivillerin ölümüne ya da savaşan taraflar arasındaki müzakerelerin bozulmasına neden olabilir.

Örneğin, yapay zekanın hedefi tanımlama algoritmaları, tankları etrafında askerlerle birlikte gösteren uydu görüntüleriyle eğitilirse bir hata yapıp askeri bir kontrol noktasından geçen sivil bir aracı, çevresinde askerler bulunan bir tank olduğunu düşünerek hedef alabilir.

Gerçekten otonom silahlara ihtiyacımız var mı?

Birçok ülkede çok sayıda sivil, süper güçlerin gelişmiş silahlar üretme yöntemlerinden kaynaklanan büyük acılar çekti. Pek çok insan, daha kısa bir süre önce, 2022 yılı başlarında Rusya'nın Ukrayna'yı işgal için açtığı savaşa atıfla bu silahların yarardan çok zarara yol açtığını düşünüyorlar.

Rakip taraf, her ülkenin kendisini koruyabilmesi, yani diğer ülkelerin başardığı askeri teknolojiye ayak uydurabilmesi gerektiğine inanıyor. Yapay zeka satranç ve poker gibi oyunlarda insan karşısında zafer kazandı. Aynı zamanda gerçek hayatta da insanlardan daha iyi performans gösteriyor.

Microsoft’a göre kelime tanıma yazılımının hata oranı yüzde 1’ken, insanların hata yapma oranının yüzde 6 olduğundan orduların silahların kullanımı konusunda inisiyatifi yavaş yavaş algoritmalara devretmesi şaşırtıcı değil.

Ölümcül otonom silahlar neler?

ABD Savunma Bakanlığı, ölümcül otonom silahları, ‘insan müdahalesi olmadan hedefleri tespit edip bunlara saldırabilen silah sistemleri’ olarak tanımlıyor.

Bu tanım birçok savaş sistemi için geçerli. İnsansız hava araçlarındaki (İHA) ve bazı modern füzelerdeki bilgisayar sistemleri, hedefleri tespit etmelerini ve tespit edilen bu noktaları insandan daha doğru şekilde hedef almalarını sağlayan algoritmalar yer alıyor.

Örneğin İsrail'in ‘Demir Kubbe’ adlı hava savunma sistemi, insan müdahalesi olmadan hedeflere saldırabilen silah sistemlerinden biridir.

Demir Kubbe, her ne kadar füzelere karşı hava koruması sağlamak üzere tasarlanmış olsa da kazara insanları da hedef alıp öldürebiliyor. Ancak bu risk, uluslararası siyasi topluluk tarafından kabul edilebilir olarak görülüyor. Çünkü Demir Kubbe hava savunma sistemi sivillerin hayatını korumayı amaçlıyor.

Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)
Londra’daki Uluslararası Savunma ve Güvenlik Ekipmanları Fuarı'nda (DSEI) görücüye çıkan uzaktan kumandalı bir robot (AFP)

Tıpkı Ukrayna savaşında kullanılan muhafız robotlar ve kamikaze İHA’lar gibi yapay zeka destekli robotlar zaten var. Bu yüzden eğer ölümcül otonom silahların kullanımını kontrol altına almak istiyorsak modern silahların tarihini bilmek zorundayız.

Savaş kuralları

Bir savaş sırasında savaş esirlerine ya da sivillere yönelik muameleyi düzenleyen Cenevre Sözleşmesi gibi uluslararası anlaşmaların imzalanması, savaş sürecinde yapılanları kontrol etmeyi amaçlayan araçlardandı.

Ancak ne yazık ki ABD'nin Vietnam'da, Rusya'nın ise Afganistan'da kimyasal silah kullanması bu tür araçların yetersiz olduğunu kanıtladı.

Anti-personel mayınların ve misket bombalarının kullanımının, depolanmasının, üretiminin ve devredilmesinin yasaklanması ve bunların imhasıyla ilgili 1997 yılında imzalanan Ottawa Sözleşmesi’ne 122 ülke taraf oldu. Fakat ABD, Rusya ve Çin, sözleşmeyi imzalamadı.

Kara mayınları 2015 yılında yılda yaklaşık 5 bin askerin ve sivilin ya yaralanmasına ya da ölümüne neden olurken, 2017 yılında bu sayı 9 bin 440 kişiye ulaştı.

Kara Mayınlarının Yasaklanması için Uluslararası Kampanya (ICBL) girişiminin 2022 raporuna göre tam 10 yıl boyunca mayın mağdurlarının sayısı azaldıktan sonra, son 7 yılda bu sayıda bir artış oldu. Bu artışın nedeni, 2015 yılından bu yana çatışmaların ve el yapımı mayın kullanımının artması. Bunun yanında kurbanların çoğu sivil ve yarısı da çocuk.

Rusya ve Ottawa Sözleşmesi’ni imzalayan taraflardan biri olan Ukrayna'nın kara mayınları kullandığına, ayrıca Ukrayna'nın silahlı insansız hava araçlarından (SİHA) yararlandığına ve bunları Rusya’nın altyapısına yönelik kamikaze saldırılarında kullandığına dair kanıtlar var.

Tüm itirazlara rağmen ölümcül otonom silahların yasaklanması iki nedenden dolayı gerçeklerle örtüşmüyor. Bu nedenlerden biri, bu silahların artık tıpkı mayınlar gibi gerçeğe dönüşmüş olmaları, ikincisi ise ölümcül otonom silahlar ile katil robotlar arasındaki farkın bulanıklaşması ve aralarında ayrım yapılmasının zorlaştırması. Askeri yetkililer, yasağı aşmanın yollarını bulacak, katil robotları otomatik savunma silahları olarak sınıflandıracak ve kullanıma sokacaktır.

Gelecekte daha fazla yapay zeka destekli silah sisteminin kullanıldığını göreceğiz. Ancak bu onları görmezden gelmemiz gerektiği anlamına gelmiyor. Politikacıların, veri bilimcilerin ve mühendislerin hesap verebilir olmasına yardımcı olacak açık sınırlamalar getirilmeli. Örneğin yapay zeka sistemlerinde kullanıcının giriş ve çıkışı göremediği bir sistemi olan kara kutu anlayışı yasaklanmalı.

Güvenilir olmayan yapay zeka sistemleri, çalışmaya başlamadan önce iyi bir şekilde test edilmemiş sistemlerdir.



Eski Twitter çalışanı platformu geri getirmek için kolları sıvadı

Fotoğraf: Reuters
Fotoğraf: Reuters
TT

Eski Twitter çalışanı platformu geri getirmek için kolları sıvadı

Fotoğraf: Reuters
Fotoğraf: Reuters

ABD merkezli bir girişim, Elon Musk devralmadan önceki Twitter'ın orijinal işlevlerini ve markasını hayata döndüren yeni bir sosyal ağ kurmaya çalışıyor.

Operation Bluebird adlı Virginia merkezli girişim, "terk edilmiş" Twitter ticari markalarını geri almasına izin verilmesi için ABD Patent ve Ticari Marka Ofisi'ne (USPTO) çoktan dilekçe sundu.

Musk'ın platformu 44 milyar dolarlık bir anlaşmayla devralmasından 9 ay sonra, Temmuz 2023'te Twitter'ın adı X olarak değiştirilmişti.

Şirket, X.com'a yönlendiren Twitter.com internet sitesinin hâlâ sahibi ancak eski kuruluşa ait tüm logoları veya referansları çevrimiçi ortamdan kaldırdı.

X ayrıca kuş odaklı terminolojiye gönderme yapan özellikleri de yeniden adlandırdı; örneğin "Birdwatch" (kuş gözlemi) adlı doğrulama programı artık "Topluluk Notları" diye biliniyor.

Operation Bluebird'ün twitter.new alan adına halihazırda sahip olması, ilgili kişilerin platformun muhtemel açılışından önce kullanıcı adı ayırtmasına olanak tanıyor.

İki tescilli marka avukatı Michael Peroff ve Stephen Coates bu girişimi yönetiyor. Coates daha önce 2014-2016'da Twitter'ın ticari marka, alan adı ve pazarlama müdür yardımcısı olarak görev yapmıştı.

Operation Bluebird'ün USPTO'ya yaptığı başvuruda "Twitter ve Tweet markaları, X Corp.'un ürünlerinden, hizmetlerinden ve pazarlamasından tamamen silindi, efsanevi kuş logosu fiilen terk edildi ve markayı kullanmaya devam etme niyeti sözkonusu değil" ifadeleri yer alıyor.

Bluebird işbu dilekçede, X Corp.'un Twitter markasındaki haklarından yasal olarak vazgeçtiği, tartışmalı markaların yeniden kullanılmasına dair hiçbir niyeti olmadığı, USPTO'ya yanlış beyan ve bildirimlerde bulunarak sahtekarlık yapmayı sürdürdüğü gerekçesiyle, tüm tartışmalı markaların iptalini talep etmektedir.

Dilekçede ayrıca şirketin isminin Twitter'dan X'e çevrilmesinden kısa süre önce Musk'ın yaptığı bir paylaşıma da değiniliyor.

Musk, 23 Temmuz 2023'te "Ve yakında Twitter markasına ve yavaş yavaş tüm kuşlara veda edeceğiz" diye yazmıştı.

Musk ve X'in USPTO dilekçesine yanıt vermek için şubata kadar vakti var. The Independent cevap hakkı için X'le temasa geçti.

Independent Türkçe


En zararlı" yapay zekalar listelendi

(Unsplash)
(Unsplash)
TT

En zararlı" yapay zekalar listelendi

(Unsplash)
(Unsplash)

Anthony Cuthbertson Teknoloji Editör Yardımcısı @ADCuthbertson 

Yeni bir araştırmaya göre yapay zeka şirketlerinin büyük çoğunluğu, teknolojinin getirdiği felaket risklerini yönetmekte başarısız.

Kâr amacı gütmeyen Future of Life Institute'teki yapay zeka güvenliği uzmanlarının değerlendirmesi, önde gelen 8 yapay zeka şirketinin "bu kadar güçlü sistemlerin gerektirdiği somut güvenlik önlemlerinden, bağımsız denetimden ve güvenilir uzun vadeli risk yönetimi stratejilerinden yoksun olduğunu" ortaya koydu.

Yapay Zeka Güvenlik Endeksi'nde en iyi puanları ABD şirketleri alırken, Anthropic, ChatGPT'nin yaratıcısı OpenAI ve Google DeepMind'ı geride bıraktı. Çin şirketleriyse genel olarak en düşük notları alırken, Alibaba Cloud, DeepSeek'in hemen arkasında yer aldı.

Varoluşsal risk değerlendirmesinde hiçbir şirket D'nin üzerinde not almazken, Alibaba Cloud, DeepSeek, Meta, xAI ve Z.ai, F notu aldı.

Araştırmada, "Varoluşsal güvenlik, sektörün temel yapısal başarısızlığı olmaya devam ediyor ve hızlanan yapay genel zeka/süper zeka hedefleriyle güvenilir kontrol planlarının yokluğu arasındaki giderek genişleyen uçurum her gün daha endişe verici hale geliyor" dendi.

Şirketler yapay genel zeka ve süper zeka hedeflerini hızlandırırken, hiçbiri felaket niteliğindeki kötüye kullanımı veya kontrol kaybını önlemek için güvenilir bir plan ortaya koyamıyor.

Önde gelen yapay zeka şirketlerine temel güvenlik konularında verilen puanlar (Future of Life Institute)Önde gelen yapay zeka şirketlerine temel güvenlik konularında verilen puanlar (Future of Life Institute)

Raporun yazarları, yapay zeka şirketlerinin kendi güvenlik değerlendirmelerinde daha şeffaf olmaları ve yapay zeka psikozu gibi daha acil zararlardan kullanıcıları korumak için daha fazla çaba göstermeleri çağrısında bulundu.

UC Berkeley'den bilgisayar bilimleri profesörü Stuart Russell, "Yapay zeka CEO'ları insanüstü yapay zekanın nasıl inşa edileceğini bildiklerini öne sürüyor ancak hiçbiri kontrolü kaybetmemizi nasıl önleyeceklerini gösteremiyor. Bu gelişmeden sonra insanlığın hayatta kalması artık bizim elimizde değil" dedi.

Nükleer reaktör gereksinimlerine uygun olarak, yıllık kontrol kaybı riskini yüz milyonda bire indirebileceklerine dair kanıt arıyorum. Bunun yerine, riskin onda bir, beşte bir, hatta üçte bir olabileceğini kabul ediyorlar ve bu sayıları ne haklı çıkarabiliyorlar ne de iyileştirebiliyorlar.

OpenAI temsilcisi, şirketin "sistemlere güçlü güvenlik önlemleri eklemek ve modelleri titizlikle test etmek" için bağımsız uzmanlarla çalıştığını belirtti.

Google sözcüsüyse şunları söyledi:

Sınır Güvenlik Çerçevemiz, güçlü sınır yapay zeka modellerinden kaynaklanan ciddi riskleri ortaya çıkmadan önce belirlemek ve azaltmak için özel protokoller sunuyor.

Modellerimiz daha gelişmiş hale geldikçe, kabiliyetlerimizle aynı hızda güvenlik ve yönetim konusunda yenilik yapmaya devam ediyoruz.

Independent, yorum için Alibaba Cloud, Anthropic, DeepSeek, xAI ve Z.ai'yla iletişime geçti.

Independent Türkçe, independent.co.uk/tech


NASA ve ESA'dan yeni 3I/ATLAS görüntüleri: İki kuyruğu var

Hubble Uzay Teleskobu, yıldızlararası kuyrukluyıldız 3I/ATLAS'ı 30 Kasım'da ikinci kez gözlemledi (NASA)
Hubble Uzay Teleskobu, yıldızlararası kuyrukluyıldız 3I/ATLAS'ı 30 Kasım'da ikinci kez gözlemledi (NASA)
TT

NASA ve ESA'dan yeni 3I/ATLAS görüntüleri: İki kuyruğu var

Hubble Uzay Teleskobu, yıldızlararası kuyrukluyıldız 3I/ATLAS'ı 30 Kasım'da ikinci kez gözlemledi (NASA)
Hubble Uzay Teleskobu, yıldızlararası kuyrukluyıldız 3I/ATLAS'ı 30 Kasım'da ikinci kez gözlemledi (NASA)

3I/ATLAS'ın yeni yayımlanan görüntüleri, yıldızlararası cismin aktivitesinin arttığını ve iki kuyruğu olduğunu ortaya çıkardı.

Oumuamua ve Borisov'dan sonra Güneş Sistemi'nde görülen ilk yıldızlararası cisim olan 3I/ATLAS, son aylarını sistemin iç kısımlarında ilerleyerek geçirdi.

Kuyrukluyıldız, Mars'a ve Güneş'e en yakın konumuna ekimde ulaştı.

Gökbilimcilerin çeşitli teleskoplarla aylardır takip ettiği cisim Dünya'ya en yakın konumuna yaklaşırken, NASA ve Avrupa Uzay Ajansı (ESA) yeni görüntülerini paylaştı.

Görüntüler, 3I/ATLAS'ın Güneş'e yaklaştığında çok parlak ve aktif hale gelerek uzaya büyük miktarda süblimleşmiş gaz ve toz püskürttüğünü ortaya koydu.

NASA'nın Hubble Uzay Teleskobu, 3I/ATLAS'ı keşfinden kısa bir süre sonra temmuzda gözlemleyen ilk araçlardan biriydi. 

Bilim insanları emektar teleskobu bir kez daha kuyrukluyıldızın gizemlerini açığa çıkarmak için kullandı. 

30 Kasım'da Hubble, gökcismini Dünya'dan 286 milyon kilometre uzaktayken görüntülemeyi başardı. 

Fotoğrafın merkezindeki parlak beyaz nokta, kuyrukluyıldızın çekirdeğini (ana gövdesi) ve etrafını saran parlak gaz ve toz atmosferi olan komayı gösteriyor.

Kuyrukluyıldızlar genellikle Güneş'e yaklaştıkça içlerindeki buzun ısınıp süblimleşmesiyle parlaklaşıyor. Yıldızın enerjisi bu gazı Güneş'ten uzağa doğru uzanan bir kuyruk haline getiriyor. Cismin Güneş'e bakan en sıcak tarafındaysa, yıldıza doğru eğimli gaz ve toz püskürmeleri meydana gelebiliyor.

Hubble'ın yeni görüntüsünde bu olguların ikisi de belli belirsiz görülebiliyor.

zxscdfrg
Juice aracı, 3I/ATLAS'ın iki kuyruğunu gözler önüne serdi (ESA)

NASA'nın yanı sıra ESA da Jüpiter'e doğru yol alan Juice aracının çektiği 3I/ATLAS görüntüsünü yayımladı.

Nisan 2023'te fırlatılan Juice, Jüpiter'in en büyük üç uydusu Ganymede, Calliston ve Europa'da yaşam belirtileri arayacak. 

2031'de hedefine ulaşması beklenen araç 2 Kasım'da Hubble'a kıyasla daha yakın bir mesafeden 3I/ATLAS'ın görüntüsünü yakaladı. 

Aslında Juice'un, kuyrukluyıldızın 66 milyon kilometre uzağından edindiği veriler Şubat 2026'dan önce bilim insanlarının eline geçmeyecek.

Ancak araştırmacılar yıldızlararası cisim hakkında daha fazla bilgi edinmek için verinin bir kısmını indirdi.

Yeni yayımlanan görüntüde, kuyrukluyıldızı çevreleyen komanın yanı sıra iki kuyruk seçiliyor: plazma kuyruğu ve toz kuyruğu.

ESA'dan yapılan açıklamada "Kuyrukluyıldızın koma diye bilinen, parlayan gaz halesini açıkça görmekle kalmıyor, aynı zamanda iki kuyruğa dair işaretler de görüyoruz" ifadeleri kullanılıyor: 

Kuyrukluyıldızın elektrik yüklü gazdan oluşan 'plazma kuyruğu' karenin tepesine doğru uzanıyor. Ayrıca çerçevenin sol alt kısmına doğru uzanan, küçük katı parçacıklardan oluşan daha soluk bir 'toz kuyruğu'nu da görebiliyoruz.

Güneş Sistemi'nde ortaya çıkan kuyrukluyıldızlar genellikle komanın yanı sıra bu iki kuyruğa da sahip oluyor. 

Bilim insanları şubat sonlarında daha fazla verinin gelmesiyle 3I/ATLAS hakkında daha net bilgiler edinmeyi umuyor.

Ayrıca Dünya'ya yaklaşan cisim, pek çok aracın yanı sıra James Webb Uzay Teleskobu tarafından da görüntülenecek. 

3I/ATLAS'ın, 19 Aralık'ta 270 milyon kilometre uzaklığa gelerek Dünya'ya en yakın mesafesine ulaşması bekleniyor.

Independent Türkçe, Live Science, CNN, ESA