ChatGPT'nin halefi, baştan sona bir video oyununu dakikalar içinde üretebiliyor

OpenAI'ın yeni modeli GPT-4'ün kodlama deneyimi olmayan kullanıcıları, Pong ve Snake gibi klasik oyunları yeniden yarattı

OpenAI'ın GPT-4 modelinin kullanıcıları, yapay zeka teknolojisini kullanarak video oyunlarını ne kadar hızlı ve kolayca yaratabileceklerini çözdü (Reuters)
OpenAI'ın GPT-4 modelinin kullanıcıları, yapay zeka teknolojisini kullanarak video oyunlarını ne kadar hızlı ve kolayca yaratabileceklerini çözdü (Reuters)
TT

ChatGPT'nin halefi, baştan sona bir video oyununu dakikalar içinde üretebiliyor

OpenAI'ın GPT-4 modelinin kullanıcıları, yapay zeka teknolojisini kullanarak video oyunlarını ne kadar hızlı ve kolayca yaratabileceklerini çözdü (Reuters)
OpenAI'ın GPT-4 modelinin kullanıcıları, yapay zeka teknolojisini kullanarak video oyunlarını ne kadar hızlı ve kolayca yaratabileceklerini çözdü (Reuters)

OpenAI'ya ait ChatGPT'nin merakla beklenen halefi, yalnızca bir açıklamayı takip ederek video oyunları yaratmak da dahil muazzam çeşitte görevde yüksek kabiliyete sahip olduğunu şimdiden kanıtlıyor.
OpenAI, salı günü GPT-4'ü tanıttı ve bu yapay zeka sohbet botunun son derece popüler ChatGPT'den "çok daha incelikli talimatları" işleme yeteneğiyle övündü.
Kullanıcılar kısa süre sonra bu iddiaları teste tabi tuttu. Dijital tasarımcı Ammaar Reshi, yapay zeka aracını kullanarak klasik cep telefonu oyunu Snake'in bir versiyonunu "20 dakikadan daha kısa sürede" oluşturdu.
Oyunu internette paylaşan Reshi şunları yazdı:
"Potansiyel çok heyecan verici. Herkes kendi oyunlarını sadece onları tanımlayarak yapabilir!"
Başka bir kullanıcıysa sohbet robotundan "pong gibi bir oyun yaratmasını" istedi. GPT-4, oyunu yaratmak için kullanılabilecek bir komut dizisiyle birlikte hangi kodlama dilinin kullanılacağına dair talimatlarla ona yanıt verdi.
GPT-4'ün aynı işlemi kullanarak Connect 4'ün dijital bir versiyonunu yaratması için aldığı benzer bir istek de başarıyla sonuçlandı.
GPT-4'ün iyileştirmeleri, görüntülere yanıt verme ve 25 bin kelimeye kadar işleme yeteneğini içeriyor ki bu ChatGPT-3,5'in yapabildiğinin yaklaşık 8 katı.
Bu teknolojinin arkasındaki şirketin yaptığı gösterimde, bir kağıda basit bir internet sitesi tasarımı çizdikleri ve sistemden bu internet sitesini gerçeğe dönüştürmek için kod yazmasını istedikleri görüldü.
The Independent'ın haberine göre, OpenAI, abonelerin GPT-4'e benzersiz bir kişilik kazandırmak için yapay zekayı temel alabileceklerini de belirtti.
Şirket bunu, yazılımdan bir öğretmen gibi davranmasını ve sohbetteki insan katılımcıya cevabı doğrudan vermek yerine bir denklemi nasıl çözeceğini öğretmesini isteyerek gösterdi.
Yine de yazılımın sınırlamaları var. Bunların en ciddilerinden biri, yapay zeka geliştiricilerinin "halüsinasyon görmek" adını verdiği şey. OpenAI, sistemin hâlâ kendinden emin bir şekilde gerçekler uyduracağını ve akıl yürütme hataları yapacağını söyledi.
OpenAI, "Dil modeli çıktılarını, özellikle yüksek riskli bağlamlarda, belirli bir kullanım durumunun ihtiyaçlarını karşılayan kesin protokolle (insan incelemesi, ek bağlamla temellendirme veya yüksek riskli kullanımlardan tamamen kaçınma gibi) kullanırken büyük özen gösterilmelidir" açıklamasını yaptı.
Yazılım, Eylül 2021'den sonra yaşananlar hakkında bilgi eksikliği gösterme eğiliminde. Çünkü büyük ölçüde bu tarihten önce gerçekleşenlere dair bilgilerle eğitilmiş. Tecrübe ederek de öğrenemiyor.
OpenAI şunları ekledi:
"Gördüğümüz trafik dağılımına bağlı olarak, daha yüksek hacimli GPT-4 kullanımı için yeni bir abonelik seviyesi sunabiliriz. Bir noktada bir miktar ücretsiz GPT-4 sorgusu sunmayı da umuyoruz, böylece aboneliği olmayanlar da onu deneyebilir."
Şirket, dil öğrenme uygulaması Duolingo'yla ve görme engellilere yönelik Be My Eyes adlı bir uygulamayla ortaklıklar kurduğunu da duyurdu.
OpenAI, ortaklığı duyurduğu bir blog gönderisinde şöyle yazdı:
"GPT-4'ün yeni görsel girdi yeteneğiyle Be My Eyes, uygulamasında bir insan gönüllüyle aynı düzeyde bağlam ve anlayış üretebilen GPT-4 destekli bir Sanal Gönüllü geliştirmeye başladı.  Aniden, birisinin gönderdiği örneğin buzdolabının içindekilerin görüntüsüne karşılık, GPT-4 teknolojisi sadece buzdolabında olanları tanımak ve isimlendirmekle kalmıyor, bu malzemelerle neler yapabileceğinizi tahmin ve analiz de ediyor. Daha sonra ondan iyi bir tarif isteyebilirsiniz."
 



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe