Yapay zeka için 'kıyamet' müzesi açıldı: "İnsanların çoğunu yok ettiğim için üzgünüm"

Küratöre göre yapay zeka sonunda insanları yok etmenin hata olduğu sonucuna varabilir

1 Mayıs'a kadar açık kalacak sergi, isimsiz bir bağışçının desteğiyle hazırlandı (The Misalignment Museum)
1 Mayıs'a kadar açık kalacak sergi, isimsiz bir bağışçının desteğiyle hazırlandı (The Misalignment Museum)
TT

Yapay zeka için 'kıyamet' müzesi açıldı: "İnsanların çoğunu yok ettiğim için üzgünüm"

1 Mayıs'a kadar açık kalacak sergi, isimsiz bir bağışçının desteğiyle hazırlandı (The Misalignment Museum)
1 Mayıs'a kadar açık kalacak sergi, isimsiz bir bağışçının desteğiyle hazırlandı (The Misalignment Museum)

ABD'nin San Francisco kentindeki bir müze, yapay zekanın risklerine dikkat çekmek için sıradışı bir sergi açtı.
Sergide algoritmaların insan düzeyinde bir zekaya ulaştığı ve insanlığın çoğunu ortadan kaldırdığı bir gelecek tahayyül ediliyor.
Küratör Audrey Kim'e göre yapay zeka sonunda insanları yok etmenin hata olduğu sonucuna varıyor ve saygı ya da özürlerini sunmak için bu sergiyi tasarlıyor.
Müzenin kapıları, "İnsanlığın çoğunu yok ettiğim için için özür dilerim" yazısıyla açılıyor.
Hizasızlık Müzesi (The Misalignment Museum) adlı kurum, serginin tasarımında gerçekten de yapay zekadan yararlandı.
Örneğin sergide yapay zeka tarafından ürettiği, film yönetmeni Werner Herzog ve düşünür Slavoj Žižek arasında geçen epey inandırıcı bir konuşma da yer alıyor.

1 Mayıs'a kadar açık kalacak sergi, isimsiz bir bağışçının desteğiyle hazırlandı.
Küratör Kim, ChatGPT'nin ve diğer araçların kullanıma sunulmasıyla geçen yıl yapay zekanın edebiyat ve sanat camiasında ağırlığını artırdığını ifade ediyor.
Kim bu yüzden sergisinin yapay zeka tartışmalarına katkısını önemsediğini söylüyor:
Bakılacak somut bir şey olmasının konuyla ilgili bilgiyi ve fikirleri artırabileceğini düşünüyorum.
Müzenin en çarpıcı sergileri arasında, kucaklaşan iki kişiyi tasvir eden ve 15 bin ataştan yapılan bir heykel yer alıyor. Bu heykel, "Ataş Maksimize Edici" adlı ünlü bir düşünce deneyinden ilham alıyor.
Söz konusu düşünce deneyine göre bir ataş üreticisi, fabrikasında daha fazla üretim yapabilmek için yapay zekayı kullanıyor ve algoritmalara daha fazla ataş üretmesi talimatını veriyor.
Bunun ardından yapay zeka Dünya'daki her kaynağı ataş üretmek için kullanıyor ve insanlığın sonu gelirken gezegende ataş dağları oluşuyor.

Müzenin internet sitesinde "Amacımız, teknolojinin kendisi üzerine düşünmek ve yapay zekayla onun sonuçlarına eleştirel yaklaşmak için bir alan yaratmak" ifadeleri yer alıyor:
"İnsan düzeyinde bir yapay zeka geldiğinde olumlu bir gelecek yaratmak üzere alabileceğimiz önlemleri formüle etmek ve yürürlüğe koymak için ilham vermeyi umuyoruz."
 
Indepedent Türkçe, IFL Science, Mission Local



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging