Gizliliğe dair şikayetlerin ardından X, bir özelliğini sonlandırıyor

"Bu tarihten sonra Çevre'nizle sınırlı yeni gönderiler paylaşamayacaksınız"

(AFP)
(AFP)
TT

Gizliliğe dair şikayetlerin ardından X, bir özelliğini sonlandırıyor

(AFP)
(AFP)

X, bazı kullanıcıların Çevreler özelliğiyle ilgili aksaklıklar yaşadığını bildirmesinden aylar sonra, gönderilerin belirli bir kitleyle sınırlı tutulmasına imkan tanıyan gizlilik odaklı aracı kapatıyor.

Eski adı Twitter olan, Elon Musk'a ait şirketin perşembe günü yaptığı açıklamada Çevreler'in 31 Ekim'de devre dışı bırakılacağı duyuruldu.

Paylaştığı gönderide X, "Bu tarihten sonra Çevre'nizle sınırlı yeni gönderiler paylaşamayacak ve Çevre'nize yeni kişi ekleyemeyeceksiniz" diye belirtti.

Şirket, "Ancak kişileri takip etmeyi bırakarak onları Çevre'nizden çıkarabileceksiniz" ifadelerini kullandı.

Açıklamada, takip etmeyi bıraktıktan sonra daha önce Çevre'nizde olan kullanıcılar "artık eski Çevre Gönderilerinizi göremez" dendi.

Instagram'ın Yakın Arkadaşlar hikayelerine benzeyen özellik Tesla milyarderinin şirketi devralmasından önce, platformun Twitter diye bilindiği Ağustos 2022'de resmen kullanıma sunulmuştu.

Bu özelliğin kullanıma sunulmasından sonra şirket, "Twitter Çevreler, belirli kişilere Tweetler göndermenin ve düşüncelerinizi daha küçük bir kitleyle paylaşmanın yolu" diye belirtmişti.

Ardından şu ifadeler kullanılmıştı: 

Twitter Çevre'nizde kimlerin yer alacağını siz seçiyorsunuz ve sadece eklediğiniz kişiler Çevre'nizde paylaştığınız Tweetleri yanıtlayıp etkileşim verebilir.

Daha sonra nisanda çıkan bir yazılım hatasının, bazı kullanıcıların özel gönderilerini Çevre'lerinin parçası olmayan diğer takipçilerine ve yabancılara ifşa etmesi geniş çaplı gizlilik endişesine yol açmıştı.

Kullanıcılar Çevre'lerine özel gönderilerinin, algoritmik biçimde oluşturulan "Sizin İçin" akışında görünmeye başladığını fark etmeye başlamıştı. Yani bu gönderiler, istenen kitlenin dışındaki kişiler tarafından fark ediliyordu.

Bazı durumlarda kullanıcılar, Çevre gönderilerinin kendilerini takip etmeyen kişilere bile ulaştığına tanık olmuştu.

Etkilenen kullanıcılara gönderdiği e-postalarda Çevre tweetlerinin herkese açık olmasının arkasında bir "güvenlik meselesi" yattığını belirten X, sorun "derhal düzeltildiğinden" bu gönderilerin artık kullanıcının Çevresi dışında kimseye görünmediğini eklemişti.

Şirket şöyle belirtmişti:  

Bunun neden yaşandığını anlamak için kapsamlı bir soruşturma yürüterek sorunu ele aldık.

O dönem yapılan açıklamada, "Böyle bir olayın yol açabileceği risklerin farkındayız ve bunun yaşanmasından derin üzüntü duyuyoruz" ifadeleri kullanılmıştı.

Yazılım hatası, Musk'ın şirketi devralması ve multimilyarderin platformdaki işgücünün yaklaşık üçte ikisini işten çıkarması sonrası Twitter'ı saran sorunlar arasındaki yerini almıştı.

Twitter'ın eski mühendisi Theo Browne hatanın muhtemelen platformun öneri algoritmasının, Çevre gönderilerini sitedeki diğer kişilerle paylaşmadan önce filtreleyememesinden kaynaklandığını o dönem TechCrunch'a söylemişti.

Artık yeni bir güncelleme yapan X, şirketin bu özelliği neden kapattığını detaylandırmadan "31 Ekim 2023 itibarıyla Çevreler'i kullanımdan kaldıracağını" bildirdi.

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging