Microsoft Başkanı Smith yapay zekanın en endişe verici yönünü açıkladı

Yapay zeka firması OpenAI'ın geliştirdiği ChatGPT, Kasım 2022'de yayımlandı (Reuters)
Yapay zeka firması OpenAI'ın geliştirdiği ChatGPT, Kasım 2022'de yayımlandı (Reuters)
TT

Microsoft Başkanı Smith yapay zekanın en endişe verici yönünü açıkladı

Yapay zeka firması OpenAI'ın geliştirdiği ChatGPT, Kasım 2022'de yayımlandı (Reuters)
Yapay zeka firması OpenAI'ın geliştirdiği ChatGPT, Kasım 2022'de yayımlandı (Reuters)

Yapay zekanın tehlikeleriyle ilgili tartışmalara Microsoft Başkanı Brad Smith de katıldı. Smith, ABD'nin başkenti Washington'daki Planet World adlı müzede yaptığı konuşmada yapay zekanın en endişe verici yönünün deepfake olduğunu söyledi.

Türkçede "derin sahte" anlamına gelen deepfake kabaca birinin yüzünü dijital olarak başka birinin vücuduna monte edip elde ettiğiniz görüntüyü istediğiniz gibi kullanmanıza olanak tanıyan bir teknoloji. Kısacası internetten kolayca ulaşılabilen algoritmalar sayesinde A kişisinin yüzü B kişisine montajlanabiliyor.

Smith bir fotoğrafın ya da videonun yapay zekayla üretildiği durumlarda herkesin bunu bilebilmesi için eylem çağrısı yaptı:

Deepfake'le ilgili sorunları ele almamız gerekiyor. Yabancı siber etki operasyonlarının çoğuna dair endişelerimizi özellikle ele almamız gerekiyor. Rus hükümeti, Çinliler ve İranlılar bu tür faaliyetleri halihazırda gerçekleştiriyor.

Microsoft Başkanı, içeriklerin halkı aldatmak ya da dolandırmak için yapay zeka kullanılarak değiştirilmesine karşı önlem alınması gerektiğini savundu.

Smith, yapay zeka ürünlerine lisans verilmesini ve bu lisansların siber ya da ulusal güvenlik tehditlerine karşı koruma yükümlülükleri taşımasını tavsiye etti:

Bu modellerin çalınmamasını veya ülkenin ihracat kontrol gerekliliklerini ihlal edecek şekillerde kullanılmamasını sağlamak için yeni nesil ihracat kontrollerine, en azından sahip olduğumuz ihracat kontrollerinin geliştirilmesine ihtiyacımız olacak.

OpenAI CEO'su da uyarmıştı

Microsoft'un işbirliği yaptığı OpenAI'ın CEO'su Sam Altman da 16 Mayıs'ta ABD Kongresi'nde yapılan bir oturumda, yapay zeka destekli seçim müdahalesine dair korkularını dile getirerek, oylamanın güvenilirliğini korumak için teknolojinin düzenlemeye tabi tutulması gerektiğini söylemişti.

ABD Senatosu Adalet Komisyonu'na bağlı Gizlilik, Teknoloji ve Hukuk Alt Komitesi'ne konuşan Altman, kendi şirketinin ChatGPT'si gibi yapay zeka sohbet botlarının "önemli bir endişe kaynağı" olduğunu belirtmişti.

Seçimler ve yapay zeka hakkında "Bu konuda tedirginim" diyen Altman, kurallara ve yönergelere ihtiyaç duyulduğunu eklemişti.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging