ABD'li bilim insanı "Dünya simülasyonunu hacklemenin" yollarını arıyor

Simülasyon fikri, "Evrende yaşam nasıl ortaya çıktı?" sorusuna kadar dayanıyor

Anderson, içinde yaşadığımız olası simülasyona "Unisym" adını verdi (Unsplash)
Anderson, içinde yaşadığımız olası simülasyona "Unisym" adını verdi (Unsplash)
TT

ABD'li bilim insanı "Dünya simülasyonunu hacklemenin" yollarını arıyor

Anderson, içinde yaşadığımız olası simülasyona "Unisym" adını verdi (Unsplash)
Anderson, içinde yaşadığımız olası simülasyona "Unisym" adını verdi (Unsplash)

ABD'li bilim insanı ve akademisyen David Anderson, evrenin ve dolayısıyla Dünya'nın simülasyon olabileceği teorisini baz alarak ilginç bir sosyal deney yaptı.
Kaliforniya Üniversitesi, Berkeley'de görev alan yazılımcı ve bilgisayar bilimci Anderson, yakınlarıyla kısa röportajlar yaparak, "simülasyonda" neyi değiştirmek istediklerini sordu.
Sonuçlarını kişisel blogunda yayımladığı bir yazıda açıklayan akademisyen, "Dünya simülasyonunu hackleyebilecek" bilgisayar korsanlarına seslendi.

Simülasyon teorisi nedir?
Simülasyon teorisi, kabaca, bu evrenin aslında başka canlıların tasarladığı bir bilgisayar programı olduğu anlamına geliyor. Teori, "Evrende yaşam nasıl ortaya çıktı?" sorusuna kadar dayanıyor.
Dünya'da ve dolayısıyla evrende yaşamın gelişmesi için gereken karmaşık koşulların ve olaylar zincirinin nasıl ortaya çıkabildiği bilim dünyasının en büyük gizemlerinden.
Bazı fizikçiler, çoklu evren teorisinin bu soruyu cevaplayabileceğine inanıyor. Buna göre bizimki gibi birçok evrenin var olduğu farz edilirse en az bir tanesinde gerekli koşulların oluşması şaşırtıcı değil.
Öte yandan bazı bilim insanları bu soruya tamamen farklı bir cevap veriyor: Evren, birilerinin bilgisayarda ince ayarlamalar yaptığı bir simülasyon olabilir.

Evren "hacklenebilir" mi?
Anderson'a göre Dünya ve bu evren bilgisayarda oluşturulmuş bir simülasyonsa onu hacklemek mümkün olabilir.
Öte yandan Dünya simülasyonunun 8 milyar insanı içerecek kadar karmaşık olduğu düşünülürse eldeki teknolojilerle simülasyonu hacklemek mümkün olamaz.
Anderson bu noktada, Dünya simülasyonunu kuracak teknik bilgiye ve teknolojiye sahip kişiler arasındaki bilgisayar korsanlarına işaret ediyor.
Ayrıca Dünya simülasyonu açık kaynaklıysa birçok bilgisayar programcısının da onun üzerinde değişiklik yapması mümkün olabilir.
Anderson'a göre simülasyon üzerinde iyileştirmeler yapmak, temeldeki yazılım programını değiştirmekten ibaret olmalı. New York Times'a konuşan bilim insanı, "Bir programcı olarak, bu değişikliklerin tam olarak neler olabileceğini düşündüm" dedi.
Bunun ardından Anderson "meta hacker" adını verdiği, simülasyon dışından kişilere mesaj gönderme kararı aldı ve bahsi geçen röportajları yapmaya başladı.
Diğer bir deyişle, ailesine, dostlarına ve meslektaşlarına "Dünya simülasyonunda neleri değiştirmek istersiniz?" diye sordu.
Verilen cevaplar arasında simülasyonu duraklatma yeteneği veya pişmanlıkları telafi etmeye yarayacak geri sarma seçeneği gibi fikirler yer aldı.
Anderson'ın talebi ise simülasyonun her adımda çatallanması, yani şimdikiyle birebir aynı olan yedek simülasyonlar oluşturulmasıydı. Akademisyen bu isteğinin nedenini şöyle açıkladı:
"Aksi takdirde meta hackerlar simülasyona en baştan başlamak zorunda kalabilir ve ben var olmayabilirim."
 
Independent Türkçe, Futurism, New York Times



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging