AB en fazla dezenformasyonu X'te buldu

Avrupa Birliği (AB), sosyal medya platformları arasında en fazla yanlış bilgi ve dezenformasyonun X'te yer aldığını bildirdi

(AA)
(AA)
TT

AB en fazla dezenformasyonu X'te buldu

(AA)
(AA)

AB Komisyonu Başkan Yardımcısı Vera Jourova, büyük çevrim içi platformların dezenformasyona karşı gönüllü uygulama kuralları kapsamındaki taahhütlerine ilişkin sundukları raporlar hakkında Brüksel'de basın toplantısı düzenledi.

AB'nin dezenformasyona karşı hazırladığı kuralları içeren uygulama kodunun Facebook, Google, YouTube, TikTok ve LinkedIn de dahil olmak üzere 44 platform tarafından kabul edildiğine işaret eden Jourova, platformların, çevrim içi dezenformasyonla mücadele çabaları hakkında 6 ayı kapsayan verileri rapor ettiklerini anlattı.

Jourova, platformların AB dezenformasyon kurallarını uygulamak için yaptıkları çalışmaların farkında olduğunu ve bu çabaları takdir ettiğini belirtti.

"Dezenformasyon yeni değil ve yalnızca çevrim içi platformlarda da yapılmıyor" diyen Jourova, dijitalleşmenin artmasıyla birlikte kötü niyetli aktörlerin demokrasilere zarar vermek için yeni yollar bulduklarını söyledi.

Jourova, dijital platformların Rusya-Ukrayna savaşı ve gelecek yıl yapılacak AB seçimlerinde dezenformasyon riskinin farkında olması gerektiğini vurguladı.

Özellikle, Rusya'nın bilgi kirliliği ortaya koymak için fikri savaş yürüttüğünü, yarı gerçek ve yarı yalanlar içeren içerikler paylaştığını hatırlatan Jourova, "Çok büyük platformların bu riski ele alması gerekiyor. Kremlin ve bazı aktörler Avrupa seçimleri öncesinde daha fazla faaliyette bulunacaklar" yorumunu yaptı.

Jourova, AB kurallarına uyma taahhüdünde bulunan platformların dezenformasyona karşı önlemler almasının önemine işaret ederek, uygulama kurallarını dezenformasyon risklerini ele almaya yönelik küresel düzenleyici çerçevenin bir parçasını oluşturabilecek bir davranış kurallarına dönüştürmek istediklerini anlattı.

"X, yanlış veya dezenformasyon paylaşımlarının en fazla olduğu platform" diyen Jourova, pilot çalışmalarda, dezenformasyon faaliyetinde bulunanların, dezenformasyon yapmayan muadillerine göre daha fazla takipçiye sahip olduğunu belirlediklerini söyledi.

AB'nin, Kovid-19 salgını ve Rusya-Ukrayna savaşı ile birlikte artan dezenformasyona karşı hazırladığı yeni uygulama kodu, geçen yıl haziran ayında 30'un üzerinde platform tarafından imzalanmıştı.

Meta, Google, Twitter, TikTok ve Microsoft gibi büyük platformlar tarafından imzalanan yeni kod, çevrim içi dezenformasyona karşı daha geniş taahhütler ve önlemler içeriyordu.

Dijital platformlar, dezenformasyona karşı daha fazla mücadele etme taahhüdünde bulunmuştu.

Güçlendirilmiş uygulama kodu 40'tan fazla taahhüt ve 100'ün üzerinde özel önlem içeriyor. Dezenformasyon yayanların reklam gelirlerinden faydalanamaması, sahte hesaplar, botlar veya yapay montaj video ile manipülasyonun önlenmesi, dezenformasyonu tanımlamak ve işaretlemek için daha iyi araçlar sağlanması, doğruluk kontrolünün artırılması, siyasi reklamların şeffaflaştırılması, reklam sponsorlarının açıkça belirtilmesi, platformların taahhütleri uygulamalarının raporlanması, koda uyumu değerlendirecek merkez kurulması önlemler arasında yer alıyordu.

Twitter, AB'nin gönüllü kurallarından ayrılma kararı almıştı.

Dijital Hizmetler Yasası kapsamında Twitter'ın da aralarında yer aldığı platformlar 25 Ağustos'tan itibaren AB tarafından daha katı kurallara tabi tutulmaya, sıkı denetlenmeye başlandı.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging