OpenAI CEO'sundan korkutan yapay zeka uyarısı

Teknoloji CEO'suna göre yapay genel zeka, servet eşitsizliğini artırabilir ve "kitlesel gözetim ve özerklik kaybı yoluyla halkı kontrol etmek" için kullanılabilir

Fotoğraf: Reuters
Fotoğraf: Reuters
TT

OpenAI CEO'sundan korkutan yapay zeka uyarısı

Fotoğraf: Reuters
Fotoğraf: Reuters

ChatGPT'nin yaratıcısı OpenAI'ın başkanına göre, insan zekasına rakip veya onu aşan yapay zeka "görünmeye başlıyor" ancak faydaları eşit bir şekilde dağıtılmayacak.

Yapay genel zeka (YGZ) diye bilinen insan düzeyinde yapay zekanın yaratılması OpenAI'ın temel misyonu olsa da bunun geliştirilmesi, böyle bir teknolojinin insanlığa varoluşsal bir tehdit oluşturabileceği endişelerine yol açıyor.

OpenAI CEO'su Sam Altman uzun bir blog gönderisinde YGZ'nin gelecek 10 yıl içinde herkes tarafından kullanılabilir hale geleceğini ancak gelişinin muhtemelen toplum ve ekonomide büyük bir bozulmaya neden olacağını yazdı.

Altman "YGZ'ye işaret etmeye başlayan sistemler ortaya çıkıyor ve bu nedenle içinde bulunduğumuz anı anlamanın önemli olduğunu düşünüyoruz" ifadelerini kullandı.

Gelecek, yok sayılması imkansız bir şekilde üzerimize geliyor ve toplumumuz ve ekonomimiz üzerindeki uzun vadeli değişiklikler devasa olacak.

Altman'a göre bu değişiklikler arasında "sermaye ve emek arasındaki güç dengesi" de yer alabilir ve bu durum servet eşitsizliğini daha fazla şiddetlendirebilir.

Gelişmiş yapay zekanın otoriter hükümetler tarafından "kitlesel gözetim ve özerklik kaybı yoluyla halklarını kontrol etmek için" giderek daha fazla kullanılabileceğine karşı da uyaran teknoloji patronu, YGZ'nin getireceği en büyük faydaların muhtemelen bilimsel alanda olacağını sözlerine ekledi.

Altman "YGZ'nin etkisinin dengesiz olmasını bekliyoruz" diye yazdı.

Bazı sektörler çok az değişecek fakat bilimsel ilerleme muhtemelen bugünden çok daha hızlı olacak; YGZ'nin bu etkisi diğer her şeyi geride bırakabilir.

Altman'ın blog yazısı, YGZ gelişiminin gidişatıyla ilgili endişeleri nedeniyle eski bir OpenAI güvenlik görevlisinin şirketten ayrıldığını açıklamasından neredeyse bir ay sonra geldi.

ChatGPT'nin piyasaya sürülmesinden 8 ay önce şirkete katılan Steven Adler, X'te paylaştığı bir dizi gönderide "Açıkçası yapay zekanın bugünlerdeki gelişme hızı beni oldukça korkutuyor" diye yazmıştı.

YGZ yarışı muazzam dezavantajlara sahip çok riskli bir kumar. Hiçbir laboratuvarın yapay zeka hizalaması [yapay zekanın hedeflerinin insanlarınkiyle eşleşmesini sağlamak] için bir çözümü yok. Ve ne kadar hızlı yarışırsak, birinin bunu zamanında bulma ihtimali o kadar azalır. Bugün, gerçekten kötü bir dengede sıkışmış gibi görünüyoruz. Bir laboratuvar YGZ'yi gerçekten sorumlu bir şekilde geliştirmek istese bile, diğerleri ona yetişmek için belki de felakete yol açacak şekilde işin kolayına kaçabiliyor. Bu da herkesi hızlanmaya itiyor. Umarım laboratuvarlar bunu durdurmak için gereken gerçek güvenlik düzenlemeleriyle ilgili samimi olabilirler.

YGZ'nin geliştirilmesi ve düzenlenmesi konusu bu hafta Paris'te gerçekleşecek ve Altman'ın da katılacağı Yapay Zeka Eylem Zirvesi'nde muhtemelen ele alınacak.

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging