Sam Altman kovulduğu OpenAI'a hemen geri mi dönüyor?

"Yatırımcılar da baskı yapıyor"

Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (Reuters)
Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (Reuters)
TT

Sam Altman kovulduğu OpenAI'a hemen geri mi dönüyor?

Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (Reuters)
Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (Reuters)

Sohbet botu ChatGPT ve görsel üretim aracı Dall-E'yi geliştiren ABD'li yapay zeka firması OpenAI'ın cuma günkü sansasyonel yönetim kurulu toplantısının ardından şirketten ayrılan iki üst düzey yönetici Sam Altman ve Greg Brockman, iddiaya göre girişime geri dönmek istiyor.

New York Times'a konuşan ve adı açıklanmayan kaynaklar, ikilinin yönetim kurulu üyeleriyle yeniden görüştüğünü öne sürdü. Teknoloji sitesi The Verge'de de benzer iddiaların dile getirildiği bir haber yayımlandı.

2020'den beri şirketin CEO'luk görevini üstlenen Altman'ın 17 Kasım'da ani bir kararla kovulması yapay zeka camiasında büyük tartışma yaratmıştı.

O zamandan beri OpenAI yatırımcıları ve Altman'ın destekçilerinin, yönetim kurulu üyelerine onu geri getirmeleri için baskı yaptığı iddia edildi.

New York Times'a açıklama yapan kaynaklardan biri, OpenAI'a 13 milyar dolar yatırım yapan Microsoft'un, bu baskı kampanyasına liderlik ettiğini söyledi.

İddiaya göre söz konusu yatırımcılar, Altman'ın yeni bir şirket kurması durumunda ona da yatırım yapmaya istekli. Altman'ın işten çıkarıldıktan hemen sonra bu konuyu tartışmaya başladığı dile getiriliyor.

Öte yandan ikilinin şirkete yeniden dönmesinin hiçbir garantisi yok.

Nitekim OpenAI'ın 2015'te ilk başta kâr amacı gütmeyen bir kuruluş olarak başlatılması nedeniyle yatırımcıların şirkete ne olacağı veya onu kimin yöneteceği üzerinde söz hakkı yok. 

İş insanının görevinden uzaklaştırıldığını bildiren yönetim kurulu açıklamasında "Altman'ın kurulla iletişim kurarken samimi davranmadığı" ifade edilmişti.

Şirketten cuma günü yapılan açıklamada, yönetim kurulunun Altman'a güvenini kaybettiği ifade edilirken, görevi baş teknoloji sorumlusu Mira Murati'nin geçici olarak üstlenmesi bekleniyor.

Açıklamada, Altman'ın davranışlarının yönetim kurulunun sorumluluklarını yerine getirmesini engellediği savunuluyor:

Yönetim kurulunun, onun OpenAI'a liderlik etmeyi sürdürme becerisine güveni kalmadı.

Altman ise haberin ardından X'te paylaştığı mesajında, "OpenAI'da geçirdiğim her anı çok sevdim. Kişisel olarak benim için ve umarım biraz da dünya için dönüştürücü bir güç oldu. En önemlisi de böylesine yetenekli insanlarla çalışmak beni mutlu etti" diye yazmıştı.

Şirketin bir diğer patronu ve kurucu ortağı Greg Brockman'ın da haberin ardından istifa ettiği öğrenilmişti.

İş insanı, "Sam ve ben, yönetim kurulunun bugün yaptıkları karşısında şoke olduk ve üzüldük" ifadelerini kullanmıştı.

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging