ABD'den siber savunma atağı: NSA, yapay zeka destekli istihbarat merkezi kuruyor

"Yapay zeka alanında avantaj bizde"

1952'de kurulan NSA, ABD'nin telekomünikasyon ve enformasyon güvenliğinden de sorumlu (AFP)
1952'de kurulan NSA, ABD'nin telekomünikasyon ve enformasyon güvenliğinden de sorumlu (AFP)
TT

ABD'den siber savunma atağı: NSA, yapay zeka destekli istihbarat merkezi kuruyor

1952'de kurulan NSA, ABD'nin telekomünikasyon ve enformasyon güvenliğinden de sorumlu (AFP)
1952'de kurulan NSA, ABD'nin telekomünikasyon ve enformasyon güvenliğinden de sorumlu (AFP)

ABD'nin dijital istihbarat kurumu Ulusal Güvenlik Ajansı (NSA) yapay zeka destekli istihbarat merkezi kuruyor.

NSA Direktörü Orgeneral Paul Nakasone, dünkü açıklamasında yapay zeka destekli teknolojilerin, ABD'nin siber savunmasının güçlendirilmesi amacıyla etkili biçimde kullanılmasını hedeflediklerini söyledi.

Nakasone, yeni merkezin "dış istihbarat kullanımında verimliliği artırma, yeni metodolojiler geliştirme ve risk değerlendirmeleri yapma" hizmeti sunacağını belirtti. 

Merkezin akademisyenlerin ve laboratuvarların yanı sıra Savunma Bakanlığı'nın erişimine açık olacağına dikkat çeken Nakasone, "ABD'de yapay zeka alanında avantaja sahibiz. Bunu hafife almamalıyız. Onlarca yıldır fikri mülkiyetimizi çalıp sömürerek kendi yararlarına kullanan düşmanlarımız, yapay zeka alanında kaydettiğimiz gelişmeleri de kendi çıkarlarına alet etmeye çalışacaklardır" ifadelerini kullandı.

Nakasone, yeni merkezdeki çalışmalarla, ABD'deki yapay zeka destekli savunma sistemlerinin siber saldırı tehditlerine karşı korunmasını sağlayacaklarını da söyledi.

NSA direktörü, Çin ya da Rusya'nın gelecek yıl düzenlenecek başkanlık seçimlerine müdahale etmeye çalışıp çalışmadığına yönelik soruyuysa "Henüz böyle bir şeye rastlamadık" diye yanıtladı.

Nakasone, tehdit algılama açısından yapay zekanın NSA görevlilerine önemli bir hizmet sunacağına işaret ederek, "Yapay zeka bize destek sağlıyor fakat nihai kararları insanlarımız alıyor. Bu önemli bir ayrım" ifadelerini kullandı. 

NSA, geniş çaplı dinleme operasyonunun 2013'te ortaya çıkmasıyla da gündem olmuştu. Eski NSA çalışanı Edward Snowden, gizli istihbarat bilgilerini paylaşarak ABD tarihindeki en büyük sızıntılardan birine imza atmıştı.

Belgelerde, NSA'in ABD merkezli internet şirketlerinin topladığı tüm özel iletişim verilerine erişebildiği ve yabancı ülke vatandaşlarına ait tüm internet yazışmalarını bilgi toplamak için kullanılabildiği ortaya çıkmıştı.

ABD'de 30 yıla kadar hapis istemiyle aranan Snowden, 2013'te Rusya'ya kaçarak geçici oturma izni almıştı. Rusya Devlet Başkanı Vladimir Putin, geçen yıl eylülde Snowden'a yurttaşlık verilmesini de onaylamıştı.

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging