​Hindistan ve Pakistan arasında yeni cephe: Elektronik harp

Raporlar iki ülke arasında 20 yılı aşkın süredir elektronik savaş olduğunu doğruladı (Reuters)
Raporlar iki ülke arasında 20 yılı aşkın süredir elektronik savaş olduğunu doğruladı (Reuters)
TT

​Hindistan ve Pakistan arasında yeni cephe: Elektronik harp

Raporlar iki ülke arasında 20 yılı aşkın süredir elektronik savaş olduğunu doğruladı (Reuters)
Raporlar iki ülke arasında 20 yılı aşkın süredir elektronik savaş olduğunu doğruladı (Reuters)

Uzun yıllardır e-savaş Hindistan ve Pakistan arasındaki gerginliği ve çatışmayı körükleme noktasında önemli rol oynadı. Elektronik harp, 1947 yılında İngiliz sömürgesinden kurtulan Pakistan ve Hindistan’ın bağımsızlıklarını kazandıktan sonra iki ülke arasındaki Keşmir sorunu ile başladı.
ABD’li haber kanalı CNBC tarafından elde edilen raporlarda, Hindistan ve Pakistan’ın yirmi yılı aşkın süredir birbirlerine karşı siber saldırılarını arttırdığı belirtildi. Rusya, Çin ve Kuzey Kore gibi ülkeler elektronik yetenekleri sebebiyle uluslararası arenaya sahip iken, Pakistan ve Hindistan güçlü teknoloji becerilerine ve büyük korsanlık programlarına hâkim bulunuyor.
90’lı yılların sonunda Pakistanlı gruplar, Hint sitelerine karşı başarılı korsan faaliyetlerle siber saldırı başlattı. Saldırılar, hükümet ve popüler sitelerin ele geçirilmesini de kapsadı.
Pakistanlılar çok sayıda web sitesine saldırdı
Zürih’teki Güvenlik Merkezi araştırmalarına göre, son 20 yılda Pakistanlı hackerlar, Hindistan hükümetinin elindeki Keşmir ile ilgili ihtilaflar ve Pakistanlıların işkence iddiaları yüzünden çok sayıda Hindistanlı web sitesine saldırı gerçekleştirdi.
Merkez, bazı Hint korsanlarının misilleme yaparak Pakistan sitelerine saldırdıklarını doğrularken, misillemenin 2008 yılında Mumbai’de gerçekleşen terörist saldırılara cevap niteliği taşıdığına değinildi. Hindistanlı yetkililer, saldırıların Pakistan tarafından yapıldığını duyurdu.
Karşılıklı elektronik savaş başlattılar
Proofpoint güvenlik şirketine göre, Pakistan tarafından geliştirilen kötü amaçlı yazılımlar, sahte blog ve haber sitelerinde gizlenerek, bilgisayar kameralarının etkinleştirilip kurbanlara ait e-postaları çalma işlemi ile sona eriyor. 
CrowdStrike e-güvenlik sitesi tarafından teyit edilen haberde, Hindistan’ın Pakistan’daki Android telefonlarında casusluk teknolojisini geliştirdiği ifade edildi.
CrowdStrike, her iki ülkedeki korsanların Hindistan ve Pakistan ihtilafını ateşlemek adına özellikle WhatsApp uygulaması dâhil olmak üzere sosyal paylaşım sitelerini ve mesajlaşma programlarını kullandıklarını aktardı.
‘Korsanlık çalışmaları yıllardır yapılıyor’
Facebook'un eski baş güvenlik görevlisi olan Alex Stamos konu ile ilgili yaptığı açıklamada, “Her ne kadar kamuoyu bu meseleyi nadir olarak ele alsa da, Pakistan ve Hindistan yıllardır birbirine karşı korsanlık faaliyetleri yürütüyor” ifadelerini kullandı. Stamos açıklamasında, görünmez gizli savaşın iki ülkenin istikrarsızlaştırılmasında etkili bir faktör olduğunu ifade etti.
İki ülke arasında yaşanan elektronik savaşın artması sebebiyle, Pakistan ve Hindistan’daki resmi medya ağlarında, gerçeği kurgudan ayırt etmelerine yardımcı olmak adına sürekli kılavuzlar yayınlanıyor.
Pakistan-Hindistan gerilimi
1971 yılından bu yana iki ülke arasındaki gerginlikler,  bu hafta karşılıklı olarak savaş uçakların düşürülmemesiyle daha da arttı. Pakistanlı Ceyşu’l Muhammed örgütü 14 Şubat’ta, Hindistan’da 40 askerin ölümüne yol açan bombalı saldırı gerçekleştirmişti.
Pakistan ve Hindistan önceki gün, her iki ülkenin karşılıklı olarak savaş uçaklarını düşürdüklerini ilan etti. Ardından Pakistan güçleri, Hint pilotu esir aldıklarını açıkladı. Nükleer güce sahip her iki ülke, 20 yılı aşkın süredir elektronik savaşa girişmiş durumda.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging