OpenAI'ın görevden alınan CEO'su Altman Microsoft'a katıldı

OpenAI kurucu ortağı ve eski üst yöneticisi (CEO) Sam Altman, görevden alınmasının ardından yapay zeka araştırmalarının başı olarak Microsoft'a katıldı

Sam Altman (AA)
Sam Altman (AA)
TT

OpenAI'ın görevden alınan CEO'su Altman Microsoft'a katıldı

Sam Altman (AA)
Sam Altman (AA)

Microsoft CEO'su Satya Nadella, sosyal medya hesabından yaptığı açıklamada, OpenAI ile ortaklıklarına bağlı kaldıklarını vurgulayarak, şirketin CEO'su Emmett Shear ve OpenAI'ın yeni liderlik ekibi ile çalışmayı sabırsızlıkla beklediklerini ifade etti.

OpenAI'ın kurucu ortakları Sam Altman ile Greg Brockman'ın çalışma arkadaşlarıyla birlikte yeni bir gelişmiş yapay zeka araştırma ekibine liderlik etmek üzere Microsoft'a katılacaklarını bildiren Nadella, ekibin başarıları için gereken kaynakları sağlamak üzere hızla hareket edeceklerini kaydetti.

OpenAI'a geçici CEO atandı

OpenAI, canlı görüntü akışı platformu Twitch'in kurucu ortağı Emmett Shear'ı geçici CEO olarak atadı.

Shear, X'ten yaptığı açıklamada, "hayatında bir kez çıkacak bir fırsatı değerlendirdiğini" ve OpenAI'ın geçici CEO'su olmayı kabul ettiğini bildirdi.

Microsoft ile ortaklıklarının güçlü olmaya devam ettiğini belirten Shear, gelecek haftalarda tüm müşterilere iyi hizmet vermeyi sürdürmenin önceliği olacağını kaydetti.

Shear, Altman'ın görevden alınmasına ilişkin süreç ve iletişimin kötü yürütüldüğünü, bu durumun şirkete olan güvene ciddi şekilde zarar verdiğini ifade etti.

Gelecek 30 gün için üç aşamalı bir planı olduğunu bildiren Shear, Altman'ın ayrılışını araştırmak için bağımsız bir araştırmacı tutmayı, şirketin paydaşlarıyla iletişim içinde olmayı ve OpenAI'ın yönetim ekibini yeniden düzenlemeyi düşündüğünü anlattı.

Yönetim kurulunun "Altman'ın liderlik becerisine güveni olmadığı" açıklanmıştı

Yapay zeka uygulaması ChatGPT'yi geliştiren OpenAI'ın cuma günü yaptığı açıklamada, CEO Sam Altman'ın görevinden ayrılacağı bildirilmiş, baş teknoloji sorumlusu Mira Murati'nin geçici olarak Altman'ın görevine getirildiği aktarılmıştı.

Altman'ın ayrılışının yönetim kurulu tarafından yürütülen inceleme sürecinin ardından geldiği belirtilen açıklamada, bu süreçte Altman'ın yönetim kuruluyla olan iletişiminde tutarlı bir şekilde samimi olmadığı ve bu durumun Altman'ın sorumluluklarını yerine getirmesine engel olduğu ifade edilmişti.

Açıklamada, "Yönetim kurulunun artık Altman'ın OpenAI'a liderlik etmeye devam etme becerisine güveni yok." değerlendirmesinde bulunulmuştu.

ABD basınında isimsiz kaynaklara dayandırılan haberlerde, Altman'ın yeni bir yapay zeka şirketi kurabileceği veya OpenAI'a geri dönebileceği belirtilmişti.

Şirketteki bazı çalışanların, Altman'ın yeniden CEO olarak göreve getirilmemesi durumunda istifa etmeyi düşündüğü de aktarılmıştı.



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging