İsrail ve ABD'den iki şirket, işçilerin 'zihnini okuyan' cihazlar geliştiriyor

"Bu teknolojinin distopik potansiyelini göz ardı etmiyoruz"

Patronların bir ekibin veya departmanın dikkat ve stres seviyelerine dair fikir edinmesi amaçlanıyor (Emotiv)
Patronların bir ekibin veya departmanın dikkat ve stres seviyelerine dair fikir edinmesi amaçlanıyor (Emotiv)
TT

İsrail ve ABD'den iki şirket, işçilerin 'zihnini okuyan' cihazlar geliştiriyor

Patronların bir ekibin veya departmanın dikkat ve stres seviyelerine dair fikir edinmesi amaçlanıyor (Emotiv)
Patronların bir ekibin veya departmanın dikkat ve stres seviyelerine dair fikir edinmesi amaçlanıyor (Emotiv)

Patronlar, çalışanlarının beyin sinyallerini düzenli olarak takip etmeye gönüllü oldukça, buna yönelik teknolojik araçlar sunan şirketlerin sayısı da artıyor.
İsrail merkezli Inner Eye ve ABD'li Emotiv firması, bu teknoloji girişimleri arasında öne çıkan iki örnek.
IEEE Spectrum'un haberine göre iki firma da çalışanların beyin dalgalarını ölçen kulaklıklar tasarlıyor.
Inner Eye yetkilileri, yapay zekalı kulaklıklarının insan zihninin doğuştan gelen gücünden yararlanacağını ve bu sayede çalışanların herhangi bir konu üzerinde yaşadığı kararsızlığı ortadan kaldıracağını savunuyor.
Şirkete göre bu kulaklıklar, personelin her zamankinden daha hızlı çalışmasını sağlayacak.
Şirketin internet sitesinde konuyla ilgili, "İnsanları ve makineleri birbirine bağlayarak iki dünyanın da en iyi özelliklerini bir araya getiriyoruz" ifadeleri yer alıyor.
San Francisco merkezli Emotiv ise kendi kulaklıklarının aslında birer EEG cihazı olduğunu söylüyor. Tıpta EEG teknolojisi, beyindeki elektriksel hareketleri ölçmeye yarıyor. Şirket bu sayede patronların, çalışanlarının sağlık durumunu takip edebileceğini öne sürüyor.
Emotiv'in CEO'su ve kurucu ortağı Tan Le, "Bu teknolojinin distopik potansiyelini göz ardı etmiyoruz" ifadelerini kullandı.
"Dolayısıyla, bu teknolojiyi tanıtmak için sorumluluk sahibi ortakları seçmemiz gerektiğinin farkındayız" diyen Le, sözlerini şöyle sürdürdü:
"Bu ortakların çalışanlara yardım etmek ve onları güçlendirmek için sahici bir istek duyması gerekiyor."
Söz konusu teknoloji karşısında tereddüt eden çalışanlarsa "zihin okuyan" kulaklıklara özellikle mahremiyetleri açısından şüpheyle yaklaşıyor.
Öte yandan, Emotiv, mahremiyeti korumak ve çalışanların beyin ölçümlerine göre terfi ettirilmesini veya kovulmasını önlemek için verileri anonimleştireceklerini savunuyor.
"Veriler size aittir" diyen Le, konuyla ilgili şu açıklamada bulundu:
"Verilerinizi siz görebilirsiniz. Bunların kopyasının işvereninizle anonim olarak paylaşılması için de izniniz gerekmeli."
Söz konusu cihazlar, üretkenliği artırmak ve çalışanların sağlıklı olmasını sağlamak için teknolojik çözümler olarak lanse ediliyor.
Ancak eleştirel yaklaşanlar, bu söylemlerin yalnızca pazarlama hamlesi olabileceğine dikkat çekiyor.
Şirketler, nöroteknolojinin yakın gelecekte giyilebilir cihazların vazgeçilmez özelliği olacağını savunurken, işgücünün en azından şimdilik bu cihazları kullanmak isteyip istemeyeceği şüpheli.
Nöroteknolojide etik yaklaşımları savunan Neuroethics Enstitüsü'nün kurucusu Karen Rommelfanger, "İşverenlerin bu cihazlara büyük bir ilgi duyduğunu düşünüyorum. Ancak çalışanların ilgi duyup duymadığından emin değilim" diyor. 
Independent Türkçe, Futurism, IEEE Spectrum



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging