Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
TT

Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim

ABD merkezli yapay zekâ araştırma şirketi OpenAI tarafından bundan yaklaşık bir ay önce, ChatGPT 4 uygulamasının piyasaya çıkarılmasından önce şirketin uygulamayı değerlendirmeleri için tuttuğu uzmanlar, uygulamanın kimyasal silah üretmeye yardımcı olabileceği konusunda uyarıda bulundular. Bugün aynı uyarı, sohbet robotlarının ‘terör örgütlerine üye toplamak amacıyla kullanılabileceğine dikkati çeken terör uzmanları tarafından da yapılıyor.

Uzmanlar, yapay zeka destekli sohbet robotlarının ‘savunmasız ya da muhalif kişileri, terör saldırıları gerçekleştirmeye ikna etmek için bir araç olarak hizmet edebileceği’ konusundaki endişelerini dile getirdiler. Şarku’l Avsat’ın İngiliz gazetesi The Guardian’dan aktardığı habere göre İngiltere’de yaşayan 19 yaşındaki Matthew King’in geçtiğimiz cuma günü ‘internette radikalizme özendiren materyaller gördükten sonra terör saldırısı planladığı’ suçlamasıyla ömür boyu hapis cezasına çarptırıldığı dava, bu endişeleri artırdı.

Uzmanlar, bu genç adamın yapay zeka destekli sohbet robotları tarafından radikalleştirilme hızının, savunmasız bireylerin yatak odalarından bu araçlarla teröriste dönüştürüldüğünün giderek daha net hale geldiğinin bir kanıtı olarak gördüler.

The Guardian gazetesi, Terörizm Mevzuatının Bağımsız Denetçisi Jonathan Hall QC, Jonathan Hall QC tarafından yapılan şu açıklamayı aktardı:

“İnsanların önlerinde sadece bir bilgisayarla bu dünyaya dalmaları beni endişelendiriyor. Onları bir şeyler yapmaya ikna eden bir dil kullanma konusunda becerikli sohbet robotlarını buluyorlar.”

Yapay zekanın mucitleri, yapay zekanın dünyanın çehresini daha iyiye doğru değiştirecek avantajlarından bahsederken Hall QC, yeni teknolojinin terör örgütlerine üye toplamak için kullanılabileceği endişesiyle ‘teknolojik ütopya’ zihniyetinden vazgeçmeleri gerektiğini düşünüyor.

Hall QC, sözlerini şöyle sürdürdü:

“Yapay zekanın ulusal güvenliğe yönelik tehdidi, her zamankinden daha belirgin ve teknoloji üreticilerinin yapay zekayı tasarlarken teröristlerin niyetlerini dikkate almaları gerekiyor.”

Yapay zekanın insanlığı yok etmekle tehdit edebileceği konusunda uyarıların ardından artan bu alanda gerekli düzenlemelerin yapılması çağrılarıyla birlikte İngiltere Başbakanı Rishi Sunak, önümüzdeki çarşamba günü ABD Başkanı Joe Biden ve ABD Kongresi’nin üst düzey üyeleriyle görüşmek üzere ABD'ye gittiğinde konuyu gündeme getirmesi bekleniyor.

Bu adım, İngiltere’nin Güvenlik Servisi (MI5), Alan Turing Enstitüsü ve Ulusal Veri Bilimi ve Yapay Zeka Kurumu ile yapay zekanın ortaya çıkardığı ulusal güvenlik sorunlarını ele alma çabalarıyla uyumlu.

Alan Turing Enstitüsü Savunma ve Güvenlik Programı dijital ahlak araştırmacısı olan Dr. Alexander Blanchard, “Güvenlik servisleriyle yapılan ortak çalışma, savunma ve güvenlik politika yapıcıları arasında neler olup bittiği, yapay zekanın nasıl kullanabileceği ve tehditlerin neler olduğunu anlama konusunda büyük bir istek olduğundan, İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını ciddiye aldığını gösteriyor” şeklinde konuştu.

Dr. Blanchard, şöyle devam etti:

“Gerçekten neler olup bittiğinin izlenmesi gerekiyor. Mevcut tehditlerin, uzun vadeli risklerin neler olduğunu ve yeni nesil teknolojinin ne gibi tehlikeler barındırdığını anlamak için birtakım çalışmalar yapılıyor.”

İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını fark etmesiyle birlikte Başbakan Sunak, geçtiğimiz hafta İngiltere'nin yapay zeka düzenlemeleriyle ilgili küresel bir merkez olmak istediğini ve ‘ekonomiye ve topluma muazzam faydalar’ sağlayabileceğini söyledi.

Dr. Blanchard ve Hall QC, asıl meselenin, insanların yapay zekayı nasıl kontrol edebileceği olduğunu ve böylece yapay zekanın faydalarının en üst düzeye çıkarılabileceğini ve zararlarından kaçınılabileceğini söylediler.

Suudi Arabistan’daki Kral Abdullah Bilim ve Teknoloji Üniversitesi'nde (KAUST) Yapay Zeka Girişimi Direktörü Juergen Schmidhuber, yapay zekanın getirdiği güvenlik sorunlarının bilinmesi ve bunlarla mücadele edilmesi için çalışılması zorunluluğuyla ilgili olarak “Yapay zekanın artıları eksilerinden çok daha ağır bastığından ‘yapay zekanın saf kötülük’ olduğu öne sürülebilir, fakat bu doğru değildir. Olumsuzluklar hakkında konuşmaktan kaçınmak önemli” dedi.

Bilim ve akademik çevrelerde ‘yapay zekanın öncülerinden biri’ olarak bilinen Schmidhuber, daha önce Şarku’l Avsat’a yaptığı açıklamalarda yapay zekanın tehlikeleri ve olumsuzlukları hakkında konuşmanın, her zaman olumlu şeylerden daha ağır basacak şekilde kamuoyunun dikkatini çektiğini, bu yüzden katil robotlarla ilgili Arnold Schwarzenegger filmlerinin yapay zekanın tıp dünyasındaki faydalarıyla ilgili belgesellerden daha popüler olduğunu vurguladı.

Mısır'daki Nil Ulusal Üniversitesi'nde yapay zeka alanında çalışmalar yapan araştırmacı Mustafa el-Attar, Şarku’l Avsat’a yaptığı değerlendirmede, “Sohbet robotlarının kendi kendine öğrenme yeteneklerinin dondurulması, tehlikelerini büyük ölçüde azaltabilir. Yapay zekanın suistimal edilmemesi için bu yapılmalı” dedi.

Attar, kendi kendine öğrenme özelliğinin kapatılmasının chatbotun programlanırken girilen kaynaklar dışında yeni kaynaklar kullanmayacağı anlamına geleceğini ve böylece zaman zaman bu kaynakları güncelleyebileceğini belirterek bu sayede sağladığı bilgiler üzerinde kontrol sahibi olabileceğine işaret etti.



Gazze, İsrail'in yapay zeka teknolojilerini test ettiği bir alana dönüştü

İsrail ordusunun Matzpen teknoloji birimi (Reuters)
İsrail ordusunun Matzpen teknoloji birimi (Reuters)
TT

Gazze, İsrail'in yapay zeka teknolojilerini test ettiği bir alana dönüştü

İsrail ordusunun Matzpen teknoloji birimi (Reuters)
İsrail ordusunun Matzpen teknoloji birimi (Reuters)

İnci Mecdi

İsrail tarafından geliştirilen ve 7 Ekim 2023 tarihinden bu yana Gazze’deki savaş sırasında Hamas liderlerinin yerini tespit etmek için kullanılan yapay zeka (AI) teknolojileri, özellikle de İsrail'e askeri bir avantaj sağlayan bu teknolojilerin kullanılmasının feci sonuçları göz önüne alındığında, giderek artan etik kaygılara yol açıyor.

İsrailli ve ABD’li yetkililerin ABD merkezli New York Times (NYT) gazetesine verdiği bilgilere göre İsrailli subaylar yapay zeka tabanlı askeri teknolojiyi ilk kez 2023 yılının sonlarında, 7 Ekim 2023 saldırılarının planlanmasına yardımcı olan Hamas’ın üst düzey liderlerinden İbrahim el-Bayari'ye suikast düzenlemek için kullandı. İsrail istihbaratı, Gazze Şeridi'nin altındaki tünellerde saklandığına inanılan Bayari’nin yerini başlangıçta tespit edemedi. Bu da on yıl önce savaşta kullanılmadan geliştirilmiş olan aracı geliştirmek için yeni bir teşvik sağladı. İçeridekilere göre Birim 8200 mühendisleri yapay zekayı bu araca dahil etmekte gecikmedi. İsrail kısa süre içinde Bayari'nin aramalarını dinleyebildi ve aramaların yapıldığı yerin yaklaşık konumunu veren sesli yapay zeka aracını test etti. İsrail bu bilgiyi kullanarak 31 Ekim 2023'te bölgeyi hedef alan hava saldırıları düzenledi ve Bayari'yi öldürdü.

“The Studio”

Ancak İsrail'in savaş sırasında kullandığı yapay zeka teknolojileri önemli sivil kayıplara yol açtı. Şarku’l Avsat’ın Londra merkezli çatışma izleme kuruluşu Airwars'tan aktardığı verilere göre Bayari'ye yapılan saldırıda 125'ten fazla sivil öldü. Kimliklerinin gizli kalması şartıyla NYT’ye konuşan ABD ve İsrailli dokuz yetkilinin açıklamalarına göre Bayari suikastı için düzenlenen hava saldırısında 125'ten fazla sivil öldürüldü. Bunun için kullanılan sonik araç, İsrail'in Gazze'deki savaşı yapay zeka destekli askeri teknolojileri dünyanın daha önce hiç görmediği bir hızda test etmek ve uygulamak için nasıl kullandığının sadece bir örneğiydi.

İsrail, geçtiğimiz 18 ay boyunca kısmen gizlenmiş ya da yaralanmış olan yüzleri gerçek kimliklerle eşleştirmek için yapay zekayı yüz tanıma yazılımına da entegre etti. Potansiyel hava saldırısı hedeflerini gruplandırmak için yapay zekayı kullandı. İki kaynağa göre, mesajları, sosyal medya gönderilerini ve Arapça diğer verileri toplayıp analiz edebilen bir sohbet robotunu güçlendirmek için Arapça bir yapay zeka modeli oluşturdu.

NYT'ye konuşan ve söz konusu teknolojiler hakkında bilgi sahibi olan kişilere göre bu çabaların çoğu Birim 8200'de görevlendirilen askerler ile Google, Microsoft ve Meta gibi teknoloji şirketlerinde çalışan yedek askerler arasında bir ortaklığın da önünü açtı. Kaynaklar, Birim 8200'ün bir inovasyon merkezi ve uzmanların yapay zeka projeleriyle eşleştirildiği bir yer olan The Studio'yu oluşturduğunu söyledi.

Yedek askerler

İsrailli yetkililer, Hamas'ın 7 Ekim 2023'te İsrail'e sınır ötesi saldırılar düzenleyerek bin 200'den fazla kişiyi öldürmesi ve 250’den fazla kişiyi rehin almasının ardından, Birim 8200 ile The Studio’daki yedek askerler arasındaki iş birliğinin hızla yeni yapay zeka teknolojileri geliştirmesine izin verildiğini açıkladı. Yatırımcıları şirketlerle buluşturan ve kâr amacı gütmeyen İsrailli bir kuruluş olan Startup Nation Central'ın CEO'su Avi Hasson, META, Google ve Microsoft'ta çalışan İsrailli yedek askerlerin insansız hava araçları (İHA) ve veri füzyonu (bilgi bütünleştirme) alanlarında inovasyonu teşvik eden kilit unsurlar haline geldiğini söyledi. Yedek subaylar teknik bilgi birikimi ve orduda bulunmayan kilit teknolojilere erişim sağladılar.

İsrail ordusu İHA filosunu güçlendirmek için de hızla yapay zekayı kullandı. İsrail ordusuyla birlikte çalışan bir yazılım ve yürüyüş şirketi olan XTEND’ın kurucusu ve CEO'su Aviv Shapira, hedefleri uzaktan tanımlayan ve takip eden İHA’lar geliştirmek için yapay zeka algoritmalarının kullanıldığını söyledi.

İsrailli ve ABD'li yetkililere göre İsrail yapay zeka tabanlı cephaneliğini geliştirmek için yarışırken bile, bu teknolojilerin kullanılması bazen yanlış kimliklere, tutuklamalara ve sivil ölümlerine yol açtı. Bazıları, gözetimin artmasına ve sivillerin öldürülmesine yol açabilecek yapay zekanın etik sonuçları hakkında tartışırken Avrupalı ve ABD'li savunma yetkilileri, başka hiçbir ülkenin mevcut savaşlar sırasında yapay zeka araçlarını denemede İsrail kadar aktif olmadığını ve bu teknolojilerin gelecekteki savaşlarda nasıl kullanılabileceğine ve nasıl başarısız olabileceklerine dair bir fikir verdiğini söyledi.

Geniş dil modeli

The Studio tarafından geliştirilen araçlardan biri de geniş dil modeli olarak bilinen Arapça yapay zeka modeliydi. Konuyla ilgili bilgi sahibi İsrailli subaylara göre ülkede onlarca yıldır Arapça konuşulan lehçelerde ele geçirilmiş kısa mesajlar (SMS), telefon görüşmeleri ve sosyal medya paylaşımları bulunuyor. Bu yüzden İsrailli subaylar savaşın ilk birkaç ayında geniş bir dil modeli oluşturdular ve Arapça sorgular yapmak için bir chatbot geliştirdiler. ABD’li ve İsrailli yetkililerin dördü, aracın multimedya veri tabanlarıyla entegre edilerek analistlerin görüntü ve videolar üzerinde karmaşık aramalar yapabilmelerinin sağlandığını söyledi.

İsrailli üç subaya göre İsrail geçtiğimiz eylül ayında Hizbullah lideri Hasan Nasrallah'a suikast düzenlediğinde, bahsi geçen chatbot Arap dünyasındaki tepkileri analiz etti. Teknoloji, halkın tepkilerini ölçmek için Lübnan'daki farklı lehçeleri ayırt ederek İsrail'in karşı saldırı başlatmak için kamuoyu baskısı olup olmadığını değerlendirmesine yardımcı oldu. Ancak iki subaydan biri, chatbotun bazen İngilizceden Arapçaya çevrilen bazı modern argo terimleri ve kelimeleri tanımlayamadığını, bunun da farklı lehçelerde uzman İsrailli istihbarat subaylarının çalışmasını gözden geçirip düzeltmesini gerektirdiğini belirtti.

İsrailli iki istihbarat yetkilisine göre chatbot bazen yanlış cevaplar verdi. Aynı yetkililer, chatbotun örneğin tüfekleri boru olarak gösterdiğini, ancak yapay zeka aracının araştırma ve analizi büyük ölçüde hızlandırdığını söylediler.

İsrail ayrıca 7 Ekim 2023 saldırılarından sonra Gazze Şeridi'nin kuzeyi ve güneyi arasında kurulan geçici kontrol noktalarına, Filistinlilerin yüksek çözünürlüklü görüntülerini tarayıp yapay zeka destekli yüz tanıma yazılımına gönderme özelliğine sahip kameralar yerleştirmeye başladı. Ancak sistem, zaman zaman yüzleri gizlenmiş kişileri tanımlamakta zorlandı. Bu durum, yüz tanıma sistemi tarafından yanlışlıkla teşhis edilen Filistinlilerin tutuklanmasına ve sorgulanmasına yol açtı.