Open AI: İnsanlığın yok olmasını önlemek için yapay zeka düzenlemesi gerekli

“Bizi bu sistemlerin tehlikelerinden korumak için Uluslararası Atom Enerjisi Ajansı gibi bir kuruma olan ihtiyacı vurguladım.”

Şirket yetkilileri, yapay zeka sistemlerinin yıllar içinde farklı sektörlerdeki birçok uzmanın beceri düzeyini aşacağını öngörüyor (Reuters)
Şirket yetkilileri, yapay zeka sistemlerinin yıllar içinde farklı sektörlerdeki birçok uzmanın beceri düzeyini aşacağını öngörüyor (Reuters)
TT

Open AI: İnsanlığın yok olmasını önlemek için yapay zeka düzenlemesi gerekli

Şirket yetkilileri, yapay zeka sistemlerinin yıllar içinde farklı sektörlerdeki birçok uzmanın beceri düzeyini aşacağını öngörüyor (Reuters)
Şirket yetkilileri, yapay zeka sistemlerinin yıllar içinde farklı sektörlerdeki birçok uzmanın beceri düzeyini aşacağını öngörüyor (Reuters)

Popüler yapay zeka sohbet robotu ChatGPT'yi geliştiren OpenAI firması yetkilileri, "Uluslararası Atom Enerjisi Ajansı gibi bir kuruma ihtiyaç var; insanlığı yanlışlıkla bir şey yaratma ve ona insanları yok etme gücü verme tehlikesinden korumak için" diyerek ‘süper zeki’ yapay zeka teknolojilerinin düzenlenmesi çağrısında bulundu.

OpenAI'nin kurucu ortakları Greg Brockman ve Ilya Sutskiver, şirketin web sitesinde yayınladıkları kısa bir açıklamada, bu tür sistemlerin yaratabileceği varoluşsal tehlikeyi azaltmak için uluslararası bir düzenleyicinin sistemleri incelemesi, denetim talep etmesi, güvenlik seviyelerini ve güvenlik standartlarına uygunluğu test etmesi konusunda çalışmaya başlaması çağrısında bulundu.

Yetkililer, “Önümüzdeki on yıl içinde yapay zeka sistemlerinin farklı sektörlerde birçok uzmanın beceri düzeyini aşacağı ve gelişmiş şirketlerle kıyaslanabilecek büyük miktarda üretken faaliyet gerçekleştireceği öngörülmekte” diye eklediler.

Yetkililer hem olumlu hem de potansiyel olumsuz yönleri açısından süper zekânın insanlığın geçmişte yüzleşmek zorunda kaldığı diğer teknolojilerden daha güçlü olacağına dikkat çekerek, “Çok daha müreffeh bir geleceğe sahip olabiliriz; ancak bunu başarmak için riskleri yönetmek zorundayız. Varoluşsal risk potansiyeli göz önüne alındığında, basitçe reaktif olamayacağız" açıklamasında bulundular.

sacs
OpenAI, geçtiğimiz Kasım ayında ünlü sohbet robotu ChatGBT'yi piyasaya sürdü (Reuters)

Brockman ve Sutskiver, kısa vadede, güvenlik öncelikli olmak üzere, toplumla sorunsuz bir şekilde bütünleşen daha sağlam modellerin geliştirilmesini sağlamak amacıyla, en son YZ araştırmaları üzerinde çalışan şirketler arasında belirli bir düzeyde koordinasyon çağrısında bulundu.

Brockman ve Sutskiver sözlerine şöyle devam etti:

Bu koordinasyon, örneğin hükümet öncülüğünde bir proje yoluyla ya da YZ yeteneklerinin büyümesini sınırlamak için toplu bir anlaşma yoluyla sağlanabilir.

İki gün önce San Francisco'da düzenlenen AI Forward Forum'da Brockman, popüler chatbot üreticisinin yapay zekayı küresel olarak nasıl düzenlemeyi amaçladığının ana hatlarını ele aldı.

Brockman’ın ortaya attığı fikirler arasında, Wikipedia benzeri bir model de vardı.

Yapay zeka politikasıyla ilgili olarak “Sadece Silikon Vadisi'nde oturup herkes için bu kuralları koyabileceğimizi düşünmüyoruz. Demokratik karar alma süreci hakkında düşünmeye başlıyoruz” dedi.

Open AI, geçtiğimiz Kasım ayının sonunda insanlarla etkileşime giren ve talep üzerine her türlü metni üretebilen yapay zekaya dayalı ünlü konuşma robotu ChatGPT’yi piyasaya sürdü ve başarısı şirketleri bu teknolojiye gelişmiş yetenekler kazandırmak için teknoloji rekabetine yöneltti.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging