ChatGPT 'çöküyor' ve hiç bu kadar insani olmamıştı

Yapay zeka teknolojisi orta yaş bunalımı yaşıyor gibi görünüyor ve sorulara anlamsız ya da tehditkar cevaplar veriyor. Ve bize hiç bu kadar benzememişti

Reuters
Reuters
TT

ChatGPT 'çöküyor' ve hiç bu kadar insani olmamıştı

Reuters
Reuters

Ryan Coogan

Şu sıralar yapay zeka teknolojileri üzerine pek çok tartışma var. Bazıları iş bulmanın zaten imkansız olduğu bir ekonomide bu teknolojilerin işçilerin yerini alacağından endişe ediyor. Diğerleriyse yaratıcılık duygumuza ne yapacakları hakkında endişeli ve yapay sanatının yaygınlaşmasını giderek düşen kültürel standartlarımızın örneği olarak görüyor.

Bunlar haklı endişeler fakat yapay zeka, günün sonunda insanların kullandığı sadece bir başka araç. Kullanıcılara yalın, inkar edilemez gerçeklere kolay erişim sağlamak için mantığa dayanan tarafsız bir hesaplama sistemi. Bir gün kontrolümüzden çıkacağı fikri bilimkurgudan ibaret ve gerçekten ciddiye almamız gereken bir şey değil.

Şimdi kahvemden büyük bir yudum alayım ve eski dostumuz ChatGPT'yle ilgili son gelişmelerin neler olduğuna bir bakayım...

Ne yazık ki görüş yazıları yazılı bir mecra, dolayısıyla OpenAI'ın dost canlısı sohbet robotunun bir tür orta yaş krizi geçiriyor gibi göründüğünü ve basit sorular sorulduğunda kullanıcılara saçma sapan yanıtlar vermeye başladığını okuduğumda ağzımdaki yudumu komik derecede abartılı şekilde püskürtüşümü hepiniz kaçırdınız. Yanıtlar, en iyi şekilde "anlamsız" diye tanımlanabilecek şeylerden, bazı kullanıcıların "tehdit" diye yorumladığı şeylere kadar değişiyor.

OpenAI resmi durum sayfasında sorunları kabul etti ancak henüz bunlar için bir açıklama yapmadı. Bazıları bu olayın ChatGPT'nin yaratıcılık parametrelerinin çok yükseğe ayarlanmasından kaynaklanabileceğini ve bunun da soruları daha az odaklanma ve netlikle yanıtlamasına yol açabileceğini öne sürdü.

Dürüst olmak gerekirse bu kadar büyütülecek ne var bilmiyorum. Bilakis bu, şimdiye kadar yapay zeka teknolojisinden gördüğüm en ilginç çıktı. Twitter/X akışımı her gün dolduran yavan "Pokemon gerçek olsaydı ne olurdu?" sunumlarına göre "sanat"a kesinlikle çok daha fazla yakın.

İnsanların Reddit'te yayımladıkları yanıtlardan bazıları neredeyse avangard. Ezra Pound'un "The Cantos" şiirinin en karmaşık halini çağrıştıracak şekilde (sıklıkla konuşmanın ortasında bir tür berbat Spanglish [İspanyolca-İngilizce] kullanarak) diller arasında geçiş yapıyor. "Bilgisayar nedir?" sorusuna verilen bu yanıtı okuyun ve bana bunun kulağa Gertrude Stein'ın Hassas Düğmeler'de yazabileceği bir şey gibi gelmediğini söyleyin:

Bunu ülke için bir sanat ağının iyi bir işi, bilimin bir faresi, üzgün bir azınlığın kolay bir çizimi ve son olarak, sanatın küresel evi olarak yapar, geri kalan her şeyde sadece bir işte.

Eskiden üniversite düzeyinde modernist şiir öğretirdim ve bunların bazıları üzerine rahatlıkla iki ya da üç ders yapabilirdim. Bu ChatGPT'den ziyade eğitim sistemimiz hakkında bir şey mi söylüyor? Bunu söylemek bana düşmez. Demek istediğim, her zaman aldığım sıkıcı müşteri hizmetleri yanıtları yerine yapay bir süper zekanın tuhaf, aklı başında olmayan saçmalıklarını okumayı tercih ederim.

Elon Musk, soruları ChatGPT gibi sistemlere benzer şekilde ancak daha gayri resmi, konuşma tonunda yanıtlayabilmesi beklenen kendi sohbet robotu Grok'u kısa süre önce piyasaya sürdü. Ortaya çıkan sonuç daha çok 52 yaşındaki bir adamın 1990'ı yılların sonlarında popüler olan Joss Whedonvari üzgün alaycı üslubu taklit etme çabasına benziyor ve bir insandan nefret ettiğim gibi bir makineden nefret etmeye hiç bu kadar yaklaşmamıştım (ki bu da bazı açılardan onu muazzam bir başarı haline getiriyor).

Buna kıyasla, ChatGPT'de olanlar çok daha insani hissettiriyor. Bu teknolojinin şimdiye kadar gördüğüm tüm versiyonlarından daha etkili bir insan düşüncesi kapasitesine işaret eden bir tür uzun ve tutarsız bilinç akışı. Elbette gerçekte olan şey bu değil (ChatGPT temelde çok gelişmiş bir tahmini metin oluşturucu) ancak yanılsama, karlı dağ yamaçlarının prosedürlere göre oluşturulmuş milyonlarca sıkıcı videosundan veya kaçak Pixar animasyonlarından daha rahatsız edici.

ChatGPT'yi eminim "düzeltecekler" ve her şirketin hayalindeki steril müşteri hizmetleri temsilcisi olmaya geri dönecek. Ancak bu arada, bu teknolojinin gerçekten ama gerçekten tuhaflaşmasına izin verildiğinde neye benzediğini görmek güzel.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe