Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
TT

Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim

ABD merkezli yapay zekâ araştırma şirketi OpenAI tarafından bundan yaklaşık bir ay önce, ChatGPT 4 uygulamasının piyasaya çıkarılmasından önce şirketin uygulamayı değerlendirmeleri için tuttuğu uzmanlar, uygulamanın kimyasal silah üretmeye yardımcı olabileceği konusunda uyarıda bulundular. Bugün aynı uyarı, sohbet robotlarının ‘terör örgütlerine üye toplamak amacıyla kullanılabileceğine dikkati çeken terör uzmanları tarafından da yapılıyor.

Uzmanlar, yapay zeka destekli sohbet robotlarının ‘savunmasız ya da muhalif kişileri, terör saldırıları gerçekleştirmeye ikna etmek için bir araç olarak hizmet edebileceği’ konusundaki endişelerini dile getirdiler. Şarku’l Avsat’ın İngiliz gazetesi The Guardian’dan aktardığı habere göre İngiltere’de yaşayan 19 yaşındaki Matthew King’in geçtiğimiz cuma günü ‘internette radikalizme özendiren materyaller gördükten sonra terör saldırısı planladığı’ suçlamasıyla ömür boyu hapis cezasına çarptırıldığı dava, bu endişeleri artırdı.

Uzmanlar, bu genç adamın yapay zeka destekli sohbet robotları tarafından radikalleştirilme hızının, savunmasız bireylerin yatak odalarından bu araçlarla teröriste dönüştürüldüğünün giderek daha net hale geldiğinin bir kanıtı olarak gördüler.

The Guardian gazetesi, Terörizm Mevzuatının Bağımsız Denetçisi Jonathan Hall QC, Jonathan Hall QC tarafından yapılan şu açıklamayı aktardı:

“İnsanların önlerinde sadece bir bilgisayarla bu dünyaya dalmaları beni endişelendiriyor. Onları bir şeyler yapmaya ikna eden bir dil kullanma konusunda becerikli sohbet robotlarını buluyorlar.”

Yapay zekanın mucitleri, yapay zekanın dünyanın çehresini daha iyiye doğru değiştirecek avantajlarından bahsederken Hall QC, yeni teknolojinin terör örgütlerine üye toplamak için kullanılabileceği endişesiyle ‘teknolojik ütopya’ zihniyetinden vazgeçmeleri gerektiğini düşünüyor.

Hall QC, sözlerini şöyle sürdürdü:

“Yapay zekanın ulusal güvenliğe yönelik tehdidi, her zamankinden daha belirgin ve teknoloji üreticilerinin yapay zekayı tasarlarken teröristlerin niyetlerini dikkate almaları gerekiyor.”

Yapay zekanın insanlığı yok etmekle tehdit edebileceği konusunda uyarıların ardından artan bu alanda gerekli düzenlemelerin yapılması çağrılarıyla birlikte İngiltere Başbakanı Rishi Sunak, önümüzdeki çarşamba günü ABD Başkanı Joe Biden ve ABD Kongresi’nin üst düzey üyeleriyle görüşmek üzere ABD'ye gittiğinde konuyu gündeme getirmesi bekleniyor.

Bu adım, İngiltere’nin Güvenlik Servisi (MI5), Alan Turing Enstitüsü ve Ulusal Veri Bilimi ve Yapay Zeka Kurumu ile yapay zekanın ortaya çıkardığı ulusal güvenlik sorunlarını ele alma çabalarıyla uyumlu.

Alan Turing Enstitüsü Savunma ve Güvenlik Programı dijital ahlak araştırmacısı olan Dr. Alexander Blanchard, “Güvenlik servisleriyle yapılan ortak çalışma, savunma ve güvenlik politika yapıcıları arasında neler olup bittiği, yapay zekanın nasıl kullanabileceği ve tehditlerin neler olduğunu anlama konusunda büyük bir istek olduğundan, İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını ciddiye aldığını gösteriyor” şeklinde konuştu.

Dr. Blanchard, şöyle devam etti:

“Gerçekten neler olup bittiğinin izlenmesi gerekiyor. Mevcut tehditlerin, uzun vadeli risklerin neler olduğunu ve yeni nesil teknolojinin ne gibi tehlikeler barındırdığını anlamak için birtakım çalışmalar yapılıyor.”

İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını fark etmesiyle birlikte Başbakan Sunak, geçtiğimiz hafta İngiltere'nin yapay zeka düzenlemeleriyle ilgili küresel bir merkez olmak istediğini ve ‘ekonomiye ve topluma muazzam faydalar’ sağlayabileceğini söyledi.

Dr. Blanchard ve Hall QC, asıl meselenin, insanların yapay zekayı nasıl kontrol edebileceği olduğunu ve böylece yapay zekanın faydalarının en üst düzeye çıkarılabileceğini ve zararlarından kaçınılabileceğini söylediler.

Suudi Arabistan’daki Kral Abdullah Bilim ve Teknoloji Üniversitesi'nde (KAUST) Yapay Zeka Girişimi Direktörü Juergen Schmidhuber, yapay zekanın getirdiği güvenlik sorunlarının bilinmesi ve bunlarla mücadele edilmesi için çalışılması zorunluluğuyla ilgili olarak “Yapay zekanın artıları eksilerinden çok daha ağır bastığından ‘yapay zekanın saf kötülük’ olduğu öne sürülebilir, fakat bu doğru değildir. Olumsuzluklar hakkında konuşmaktan kaçınmak önemli” dedi.

Bilim ve akademik çevrelerde ‘yapay zekanın öncülerinden biri’ olarak bilinen Schmidhuber, daha önce Şarku’l Avsat’a yaptığı açıklamalarda yapay zekanın tehlikeleri ve olumsuzlukları hakkında konuşmanın, her zaman olumlu şeylerden daha ağır basacak şekilde kamuoyunun dikkatini çektiğini, bu yüzden katil robotlarla ilgili Arnold Schwarzenegger filmlerinin yapay zekanın tıp dünyasındaki faydalarıyla ilgili belgesellerden daha popüler olduğunu vurguladı.

Mısır'daki Nil Ulusal Üniversitesi'nde yapay zeka alanında çalışmalar yapan araştırmacı Mustafa el-Attar, Şarku’l Avsat’a yaptığı değerlendirmede, “Sohbet robotlarının kendi kendine öğrenme yeteneklerinin dondurulması, tehlikelerini büyük ölçüde azaltabilir. Yapay zekanın suistimal edilmemesi için bu yapılmalı” dedi.

Attar, kendi kendine öğrenme özelliğinin kapatılmasının chatbotun programlanırken girilen kaynaklar dışında yeni kaynaklar kullanmayacağı anlamına geleceğini ve böylece zaman zaman bu kaynakları güncelleyebileceğini belirterek bu sayede sağladığı bilgiler üzerinde kontrol sahibi olabileceğine işaret etti.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging