Etik uzmanları Elon Musk'ın beyin çiplerinin kendilerini niye endişelendirdiğini açıkladı

Beynine iki adet çip takılan 9 yaşındaki Pager adlı maymunun video oyunu oynadığı görüntüler büyük yankı uyandırmıştı (Neuralink)
Beynine iki adet çip takılan 9 yaşındaki Pager adlı maymunun video oyunu oynadığı görüntüler büyük yankı uyandırmıştı (Neuralink)
TT

Etik uzmanları Elon Musk'ın beyin çiplerinin kendilerini niye endişelendirdiğini açıkladı

Beynine iki adet çip takılan 9 yaşındaki Pager adlı maymunun video oyunu oynadığı görüntüler büyük yankı uyandırmıştı (Neuralink)
Beynine iki adet çip takılan 9 yaşındaki Pager adlı maymunun video oyunu oynadığı görüntüler büyük yankı uyandırmıştı (Neuralink)

Elon Musk'ın implante edilebilir beyin-makine arayüzleri geliştirmek için 8 nörologla birlikte kurduğu Neuralink insanlı denemelere hazırlanırken, uzmanlar da firmanın çalışmalarına dair endişelerini dile getiriyor.
2016'da ABD'nin San Francisco kentinde kurulan nöroteknoloji firması, beyin aktivitelerini uyarmak için insanların beyinlerine yerleştirilecek bir çip geliştiriyor.
Daha önce domuzların ve bir maymunun beynine çip yerleştiren firma, temelde beyninde hasar olan insanlara yardım edecek teknolojiler geliştirmeyi amaçlıyor.
Öte yandan bazı uzmanlar gelecekte bu teknolojinin kötü amaçlar doğrultusunda kullanılacağından endişe duyuyor.
Wisconsin Üniversitesi'nde görev alan tıp tarihçisi ve biyoetikçi Dr. Karola Kreitmair, "Kamuoyunun bu tür bir teknolojinin kullanılabilir hale gelmesinin büyük resimdeki etkilerine dair yeteri kadar bilgilendirildiğini düşünmüyorum" dedi.
Daily Beast'e konuşan Kretmair, kâr amaçlı bir şirketin böylesi bir hamle yapmasının sıkıntı doğurabileceğini ekledi.
Futurism'e göre pek çok kişi, bu ürünlerin nihayetinde kâr amacıyla nasıl kullanılacağını sorguluyor. 
SUNY Upstate Tıp Üniversitesi'nde görevli biyoetikçi Syd Johnson, "Nihai hedef, elde edilen beyin verilerini diğer cihazlar için kullanmak veya bu cihazları başka şeyler için kullanmaksa, örneğin araç kullanmak veya bir Tesla sürmekse, o zaman çok daha büyük bir pazar olabilir" ifadelerini kullandı:
"Ama bu durumda gerçek ihtiyaçları olan insanlar, başka birinin ticari kazancı için riskli araştırmalarda sömürülmüş ve kullanılmış olur."
Kreitmair buna katıldığını belirtti. Teknolojinin örneğin felçli insanların "hayatı değiştirebileceğine" inanan biyoetikçi, tüketici kullanımı söz konusu olduğunda "çok sayıda etik kaygı uyandırdığını" söyledi.
Öte yandan, uzmanların kaygılarında teknoloji milyarderi Musk'ın çizdiği imaj da etkili oldu. Pensilvanya Eyalet Üniversitesi'nde nöroetik araştırmacısı Dr. Laura Cabrera, "Bu şirketler ve şirket sahipleri bir nevi şovmen gibiler" diye konuştu.
"Abartılı iddialarda bulunacaklar ve bence bu tehlikeli çünkü insanların bazen buna körü körüne inandığını düşünüyorum" diyen Cabrera, sözlerini şöyle sürdürdü:
"Elon Musk'ın söyledikleri konusunda her zaman temkinliyim."
Independent Türkçe, Futurism, Daily Beast



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging