Telegram'ın sahibi Pavel Durov: "ABD yazılıma arka kapı kurmaya çalıştı"

Pavel Durov, dünya çapında 900 milyon kişinin Telegram'ı aktif olarak kullandığına dikkat çekerek, bu sayının bir yıl içinde 1 milyara ulaşacağını öngördüğünü söyledi (Reuters)
Pavel Durov, dünya çapında 900 milyon kişinin Telegram'ı aktif olarak kullandığına dikkat çekerek, bu sayının bir yıl içinde 1 milyara ulaşacağını öngördüğünü söyledi (Reuters)
TT

Telegram'ın sahibi Pavel Durov: "ABD yazılıma arka kapı kurmaya çalıştı"

Pavel Durov, dünya çapında 900 milyon kişinin Telegram'ı aktif olarak kullandığına dikkat çekerek, bu sayının bir yıl içinde 1 milyara ulaşacağını öngördüğünü söyledi (Reuters)
Pavel Durov, dünya çapında 900 milyon kişinin Telegram'ı aktif olarak kullandığına dikkat çekerek, bu sayının bir yıl içinde 1 milyara ulaşacağını öngördüğünü söyledi (Reuters)

Sosyal medya platformu Telegram'ın kurucu ortağı Pavel Durov, ABD hükümetinin yazılıma "arka kapı" erişimi elde etmeye çalıştığını öne sürdü.

Rus girişimci Durov, Amerikalı gazeteci Tucker Carlson'a verdiği söyleşide, Washington'ın programa gizlice erişebilmek için Telegram'ı geliştiren yazılımcılardan birini işe almaya çalıştığını savundu. 

Durov, ABD hükümetinden bir siber güvenlik görevlisinin, Telegram'ı geliştiren yazılım mühendislerinden birini işe almak için gizli bir girişimde bulunduğunu öne sürdü.

Rus girişimci "Çalışanımı, arka kapı görevi görmesi için Telegram'ın yazılımına bir kod eklemeye ikna etmeye çalıştılar" dedi. Durov sözlerine şöyle devam etti: 

Anladığım kadarıyla Telegram'ı daha iyi kontrol etmek için onunla iletişim kurdular. İşlerini yapıyorlardı, bunu anlıyorum. Fakat şahsi verilerin korunmasına odaklanan bir sosyal medya platformu işlettiğimizden, bu muhtemelen bizim için iyi bir ortam değildi.

Durov, başta firmanın merkezini ABD'nin Kaliforniya eyaletindeki San Francisco şehrine taşımayı planladıklarını fakat bu olayların ardından vazgeçtiklerini söyledi. 

Rus yazılımcı, Kremlin'le ters düşerek 2014'te ülkesini terk etmişti. Girişimci, daha sonra Telegram firmasının merkezini Dubai'ye taşımıştı. 

Söyleşide Durov, Moskova'nın Ukrayna'da 2013'te yaşanan Yevromaydan olayında hükümet karşıtı protestocuların şahsi verilerini talep ettiğini savundu. Rus yazılımcı, Ukraynalı eylemcilerin verilerini paylaşmayı reddedince ülkeden kaçmak zorunda kaldığını anlattı.

Yevromaydan olayları, 2014'te Onur Devrimi'ne dönüşmüş ve protestolar sonucu dönemin Kremlin yanlısı Ukrayna Devlet Başkanı Viktor Yanukoviç istifa etmişti.

Carlson'ın YouTube kanalında bugün yayımlanan söyleşide Durov, "Birinden emir almaktansa özgür olmayı tercih ederim" dedi.

Durov, ABD'ye farklı tarihlerde yaptığı ziyaretlerde istihbarat yetkilileri tarafından takip edildiğini de öne sürerek şunları söyledi: 

Ne zaman ABD'ye gitsem, havaalanında beni iki FBI ajanı karşılıyor ve sorular soruyordu. Bir keresinde kiralık evimde 09.00'da kahvaltı yapıyordum ve aniden FBI ajanları geliverdi.

39 yaşındaki girişimci, bu olayın ne zaman yaşandığında dair bilgi paylaşmadı.

Independent Türkçe, Moscow Times, RT, Reuters



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging