DeepSeek'in veri kullanımıyla ilgili Avrupa'dan ilk hamle geldi

DeepSeek, diğer yapay zeka araçları seviyesindeki modelleri çok daha ucuza mal etmesiyle dikkatleri üstüne çekti (Dado Ruvic/Reuters)
DeepSeek, diğer yapay zeka araçları seviyesindeki modelleri çok daha ucuza mal etmesiyle dikkatleri üstüne çekti (Dado Ruvic/Reuters)
TT

DeepSeek'in veri kullanımıyla ilgili Avrupa'dan ilk hamle geldi

DeepSeek, diğer yapay zeka araçları seviyesindeki modelleri çok daha ucuza mal etmesiyle dikkatleri üstüne çekti (Dado Ruvic/Reuters)
DeepSeek, diğer yapay zeka araçları seviyesindeki modelleri çok daha ucuza mal etmesiyle dikkatleri üstüne çekti (Dado Ruvic/Reuters)

İtalya'nın veri koruma kurumu, Çin merkezli yapay zeka şirketi DeepSeek'ten kişisel verilerin kullanımıyla ilgili bilgi talep etti.

DeepSeek modellerinin, ABD'deki muadillerinden ucuza ve az çiple üretilmesi son günlerde teknoloji sektöründe büyük yankı yarattı. 

Dev şirketlerin yüzlerce milyar dolar değer kaybetmesine yol açan DeepSeek'in Çin merkezli olması güvenlik endişelerine de neden oluyor.

Bu endişelerle ilgili Avrupa'dan bilinen ilk hamle dün (28 Ocak) İtalya'dan geldi. 

İtalyan Veri Koruma Kurumu (DPA), Avrupa'daki tüketici gruplarından oluşan koalisyon Euroconsumers'la birlikte DeepSeek'in Avrupa'daki veri koruma düzenlemeleri kapsamında kişisel verileri nasıl kullandığına ilişkin bir başvuru yaptı. 

DPA, hangi kişisel verilerin, hangi kaynaklardan, hangi amaçlarla, hangi yasal dayanakla toplandığını ve Çin'de depolanıp depolanmadığını öğrenmek istediğini belirtti.

Kurum, DeepSeek ve bağlı şirketlerinin yanıt vermek için 20 günü olduğunu söylediği açıklamada "İtalya'daki milyonlarca kişinin verileri risk altında" ifadelerini kullandı.

Kişisel verileri Çin'deki sunucularda depolayan DeepSeek, bunları kullanıcının yaşadığı ülke dışına aktarırken, "geçerli veri koruma yasalarının gerekliliklerine uygun olarak" yaptığını ifade ediyor.

Ancak DPA ve Euroconsumers daha fazla detay talep ediyor. 

TechCrunch'ın aktardığı üzere Euroconsumers çocukların verisinin nasıl kullanıldığına dair de daha fazla bilgi verilmesini istiyor.

DeepSeek, uygulamalarının 18 yaşından küçüklere uygun olmadığını belirtmesine rağmen üye olmalarını engelleyecek bir mekanizmaya sahip değil. Şirket, 14-18 yaş aralığındaki genç kullanıcıların gizlilik politikasını bir yetişkinle birlikte okumalarını öneriyor.

DPA ve Euroconsumers görünüşe göre bu türden ilk başvuruyu yapsa da muhtemelen son olmayacaklar. 

Beyaz Saray Sözcüsü Karoline Leavitt, dün yaptığı açıklamada DeepSeek'in ulusal güvenlik tehdidi yaratıp yaratmadığını araştırdıklarını söylemişti. 

DPA, yapay zekayla ilgili Avrupa'nın en aktif gözlemcileri arasında yer alıyor. 2023'te Avrupa Birliği gizlilik kurallarını ihlal ettiği şüphesiyle OpenAI'ın yapay zeka sohbet botu ChatGPT'nin ülkede kullanımını kısa süreliğine yasaklamıştı.

Independent Türkçe, TechCrunch, Reuters, DeepSeek



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging