Araştırmacılar deepfake teknolojisini kullanarak insanların zihnine sahte anılar yerleştirdi

"Deepfake'ler yanlış bilgi yaymak için daha güçlü bir araç olabilir"

Will Smith'in The Matrix'e yerleştirildiği video ilk kez 2019'da paylaşılmıştı (YouTube / Shamook)
Will Smith'in The Matrix'e yerleştirildiği video ilk kez 2019'da paylaşılmıştı (YouTube / Shamook)
TT

Araştırmacılar deepfake teknolojisini kullanarak insanların zihnine sahte anılar yerleştirdi

Will Smith'in The Matrix'e yerleştirildiği video ilk kez 2019'da paylaşılmıştı (YouTube / Shamook)
Will Smith'in The Matrix'e yerleştirildiği video ilk kez 2019'da paylaşılmıştı (YouTube / Shamook)

Araştırmacılar, ünlü filmlerin gerçekte hiç çekilmemiş olan sahte yeniden çevrimleri insanlara izleterek hatalı anılar oluşturabileceklerini tespit etti.

Yakın zamanda hakemli bilimsel dergi Plos One'da yayımlanan araştırmada 436 kişilik bir gruba popüler filmlere deepfake'le başka oyuncuların eklendiği videolar izletildi.

Bunlar arasında Brad ve Pitt ve Angelina Jolie'nin yer aldığı bir The Shining kesiti, Charlize Theron'un yüzünün yerleştirildiği Captain Marvel ve Will Smith'in Neo'yu canlandırmış gibi göründüğü The Matrix videoları vardı.

Tümünde oyuncuların yüzleri film kesitlerine deepfake teknolojisiyle yerleştirilmişti.

Katılımcılara ayrıca gerçekten var olan yeni çevrim filmler de izletildi.

Bulgular, katılımcıların ortalama yüzde 49'unun deepfake videoların gerçek olduğuna inandığını gösterdi. Bu katılımcılar filmleri gerçekten hatırladığını ileri sürüyordu.

Hatta yüzde 41'i Captain Marvel'ın yeniden çevriminin orijinalinden daha iyi olduğunu söylerken, yüzde 12'si de The Matrix'in yeniden çevrimini daha iyi bulduğunu dile getirdi.

İrlanda'daki University College Cork'tan yanlış bilgi araştırmacısı Gillian Murphy, "Gelişmekte olan teknolojilerle ilgili korkularımıza dayanarak distopik gelecek tahminlerine hemen dalmamalıyız" dedi.

Aynı zamanda araştırmanın başyazarı olan Murphy, DailyBeast'e verdiği röportajda şu ifadeleri kullandı:

Evet, deepfake'in neden olduğu çok ciddi zararlar var. Ancak var olabileceğini varsaydığımız sorunları çözmek için acele etmeden önce, her zaman ilk etapta bu zararlara dair kanıt toplamalıyız.

Öte yandan araştırmacılar, deepfake'in ekstra bir tehlike oluşturmayablileceği görüşünde.

Zira deneyin ikinci etabında deepfake'li görüntüler yerine katılımcılara metinler verildi. Bu metinlerde de ünlü filmlerin hiç çekilmemiş yeniden çevrimleri ve bu filmlerde hiç oynamamış oyuncuların isimleri geçiyordu.

Bu yazılı tariflerin de katılımcıların önemli bir kısmında sahte anılar canlandırabildiği görüldü.

Murphy, "Bulgularımız, mevcut yanlış bilgi biçimlerinin ötesinde, benzersiz derecede güçlü bir deepfake tehdidi önermiyor" diye konuştu.

Öte yandan araştırmacı, bu çalışmada yalnızca kısa süreli belleğe odaklandıklarını da sözlerine ekledi:

Deepfake'ler yanlış bilgi yaymak için daha güçlü bir araç olabilir, çünkü örneğin viral olma olasılıkları daha yüksek veya uzun vadede daha akılda kalıcı.

Deepfake nedir?

Türkçedeki birebir sözcük karşılığı "derin sahte" olan deepfake kabaca birinin yüzünü dijital olarak başka birinin vücuduna monte edip elde ettiğiniz görüntüyü istediğiniz gibi kullanmanıza olanak tanıyan bir teknoloji. Kısacası internetten kolayca ulaşılabilen algoritmalar sayesinde A kişisinin yüzü B kişisine montajlanabiliyor.

İnternet kullanıcıları, deepfake içeriğe ilk kez 2017'de maruz kaldı. O yıl anonim bir Reddit kullanıcısı, Scarlett Johansson gibi ünlülerin deepfake'le oluşturulmuş sahte pornografik görüntülerini yayımlamıştı.

Yapay zeka algoritmalarının sağlam bir deepfake örneği oluşturabilmesi için bol miktarda video kaydı gerekiyor. Bu da internet ortamında çok sayıda görüntüsü olan ünlülerle daha gerçekçi deepfake'ler oluşturulmasını sağlıyor.

 

Independent Türkçe, Futurism, DailyBeast



İnternetin kuralları değişiyor: Yapay zekanın sızamayacağı altyapı geliştirildi

Fotoğraf: Unsplash
Fotoğraf: Unsplash
TT

İnternetin kuralları değişiyor: Yapay zekanın sızamayacağı altyapı geliştirildi

Fotoğraf: Unsplash
Fotoğraf: Unsplash

İnternetin büyük bölümüne güç sağlayan internet altyapısı şirketi Cloudflare, "internetin kurallarını değiştirdiğini" söylüyor. 

Şirket, yapay zeka firmalarının internetten veri toplamasını engellemek amacıyla yapay zeka tarayıcılarını doğrudan engelleyecek.

ChatGPT gibi büyük dil modelleri, performanslarını artırmak için muazzam miktarda eğitim verisine ihtiyaç duyuyor. Bu şirketlerin çoğu, sistemleri eğitmek adına farklı internet sayfalarına erişip içeriklerini depolayan  tarayıcılar kullanıyor.

Artık Cloudflare, bu yapay zeka tarayıcılarının doğrudan engelleneceğini söylüyor. Bu, sözkonusu otomatik sistemlerin "izin veya ücret" olmaksızın sayfalara erişemeyeceği anlamına geliyor.

Bu internet sitelerinin yayıncıları, yapay zeka tarayıcılarına sitelerine erişim izni verebilecek. Cloudflare, yapay zeka şirketlerinin ödeme yapıp yapmamayı seçebileceği bir "taramaya göre ödeme" ücreti seçeneği ekleyeceğini söylüyor.

Yapay zeka sistemlerini eğitmek için çevrimiçi yazıların kullanılması, süregelen yapay zeka çağının en bölücü konularından biri haline geldi. Birçok yayıncı, içeriklerinin sistemleri eğitmek amacıyla izinsiz kullanıldığını öne sürerek yapay zeka şirketlerine karşı hukuki yollara başvurdu.

Bu çatışma 2023'te artarken Cloudflare, ilk başta internet sayfalarına özel bir etiket ekleyerek yapay zeka sitelerinden erişmemesini istemesine izin vereceğini söylemişti ancak bu uygulanamazdı. Geçen yıl, bu tür yapay zeka botlarını tespit eden bir teknoloji geliştirerek internet sitelerinin bunları otomatik olarak engellemesine imkan tanımaya başladı.

Artık ikinci araç varsayılan olarak açık hale gelecek.

Cloudflare CEO'su Matthew Prince, New York Times'a, "Cloudflare'ın internetin kurallarını tamamen değiştirdiğini" söyledi. Prince bu hamlenin, yapay zeka şirketlerinin interneti kazıyarak içeriğe serbestçe erişmesinin, insanların yeni yazılar ya da diğer içerik türlerini yayımlamaya teşvik edilmesini engelleyeceği endişesinden kaynaklandığını söyledi.

Independent Türkçe