OpenAI'daki kaosun arkasında "süper güçlü" yeni yapay zeka mı var?

Yapay genel zekaya yaklaşıldığı iddia edildi

Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (AFP)
Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (AFP)
TT

OpenAI'daki kaosun arkasında "süper güçlü" yeni yapay zeka mı var?

Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (AFP)
Altman yönetiminde şirketin değeri yaklaşık 80 milyar dolara ulaştı (AFP)

ABD'li yapay zeka firması OpenAI'nın kurucu ortağı ve CEO'su Sam Altman'ın önce kovulup bir hafta sonra yeniden göreve getirilmesinin yankıları sürüyor.

İddiaya göre Altman'ın 4 günlüğüne koltuğundan olmasının arkasında gizlice geliştirilen süper güçlü yeni bir yapay zeka modeli var.

Sohbet botu ChatGPT ve görsel üretim aracı Dall-E'yi geliştiren şirketin yüzü olarak da gösterilen Altman, 18 Kasım'da yönetim kurulu tarafından kovulmuştu.

Şirketten yapılan açıklamada, Altman'a güvenin kaybedildiği ifade edilirken, "yönetim kuruluyla iletişim kurarken samimi davranmadığı" gerekçesiyle görevden alındığı bildirilmişti.

Kovulmasının ardından şirket çalışanlarının yaklaşık yüzde 95'i, Altman'ın göreve iade edilmemesi durumunda istifa edeceklerini açıkladıkları bir mektuba imza atmıştı.

Kovulduktan sadece 4 gün sonra, 22 Kasım'da Altman, yeniden CEO olarak görevine geri dönmüştü.

Tüm bu çalkantılı süreçte ortaya bir sürü iddia atıldı ancak Altman'ın neden kovulduğu hâlâ gizemini koruyor.

Ortaya atılan iddialardan en ilgi çekici olanı, Altman'ın OpenAI'nın yönetim kurulunu panikletebilecek ve ortalığı kasıp kavuracağı düşünülen son derece gelişmiş bir yapay zeka üzerinde gizlice çalışıyor olduğu.

Hedefteki yapay genel zekaya yaklaşılıyor mu?

OpenAI'nin uzunca süredir karmaşık görevleri insanlar kadar, hatta yer yer daha iyi yerine getirebileceği öne sürülen yapay genel zeka üzerinde çalıştığı biliniyor.

Şirketin yapay genel zeka hedefine ne kadar yaklaştığı hâlâ belirsizliğini koruyor ve bu teknolojinin ne zaman piyasaya sürüleceğine dair net bir tarih verilmiş değil.

Fakat ortaya atılan yeni bir teori, OpenAI'nın ileriye doğru büyük bir sıçramanın eşiğinde olduğunu söylüyor.

Ve bu sıçramanın yaşananlarla bir ilgisi olabileceği belirtiliyor.

Yeni atılım endişe yaratmış olabilir

Reuters ve The Information'da yer alan haberlere göre, OpenAI liderleri, şirketin üzerinde çalıştığı Q* adlı yeni yapay zekadan korkmuş olabilir. 

Bu yeni sisteminin yapay genel zeka hedefine doğru önemli bir adım olarak görüldüğü ifade ediliyor.

Buna göre Q*, ilkokul matematik problemlerini çözebilecek bir algoritmaya sahip.

Reuters'ın aktardığına göre Altman'ın görevden alınmasının ardından kısa süreliğine CEO'luğu üstlenen Mira Murati, çalışanlara gönderdiği şirket içi mesajda bu yeni teknolojinin varlığını bildiklerini söyledi. 

Reuters'a konuşan kaynaklara göre, bu yeni teknolojinin Q*'nun Altman'ın kovulmasına neden olacak birçok faktörden biri olduğu belirtildi.

Daha ileri teknolojiler için önemli bir adım

Evet, ilkokul düzeyindeki matematik kulağa çığır açıcı bir başarı gibi gelmiyor.

Fakat araştırmacılar, bu yeteneği önemli bir ölçüt olarak görüyor.

Bu yetenek, daha ileri teknolojinin geliştirilmesi için önemli bir adım olarak görülüyor.

Yapay zeka eğitimi girişimi Tromero'nun kurucu ortaklarında Charles Higgins, "Eğer soyut kavramlar hakkında mantık yürütme yeteneğine sahipse gerçekten muhteşem bir ilerleme" dedi.

Dil modellerinin bu konuda zorlandığını belirten Higgins, "Çünkü mantıksal olarak akıl yürütemiyorlar, sadece etkili sezgilere sahipler" dedi.

Dünyanın sonunu getirmeyebilir

Peki Q* gerçekten insanlık için bir tehdit oluşturuyor mu?

Uzmanlar bundan pek emin değil.

Cambridge Üniversitesi'nde matematik ve yapay zeka alanında çalışmalarını sürdüren Katie Collins, "Bunun bizi hemen yapay genel zekaya eriştireceğine ya da korkutucu durumlara sürükleyeceğine inanmıyorum" dedi.

Tromero'nun kurucu ortağı Sophia Kalanovska da son gelişmenin sembolik olarak çok önemli olduğunu belirtti ve ekledi:

Fakat pratik anlamda dünyanın sonunu getireceğini düşünmüyorum.

Peki Altman'ın kovulmasının ardındaki tek faktör bu mu?

Son yaşananlar, teknoloji dünyasının gündemini uzun süre daha meşgul edecek gibi görünüyor. Şirketin geleceğine dair iç anlaşmazlıklar da dahil olmak üzere perde arkasında birçok şeyin döndüğü biliniyor.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe