Google'ın OpenAI'a karşı en büyük kozu: GeminiAI'la ilgili bilinenler

Teknoloji devinin en verimli üretken yapay zeka modeli

OpenAI'ın GPT-3,5'i piyasaya sürmesinden sadece bir yıl sonra GeminiAI'ın gelmesi analistlere bunun aceleci bir iş olduğunu düşündürdü (Google)
OpenAI'ın GPT-3,5'i piyasaya sürmesinden sadece bir yıl sonra GeminiAI'ın gelmesi analistlere bunun aceleci bir iş olduğunu düşündürdü (Google)
TT

Google'ın OpenAI'a karşı en büyük kozu: GeminiAI'la ilgili bilinenler

OpenAI'ın GPT-3,5'i piyasaya sürmesinden sadece bir yıl sonra GeminiAI'ın gelmesi analistlere bunun aceleci bir iş olduğunu düşündürdü (Google)
OpenAI'ın GPT-3,5'i piyasaya sürmesinden sadece bir yıl sonra GeminiAI'ın gelmesi analistlere bunun aceleci bir iş olduğunu düşündürdü (Google)

Google, bugüne kadar ürettiği en yetenekli yapay zeka modelini duyurdu.

GeminiAI adlı model, Google'ın ABD'li yapay zeka firması OpenAI'ın geliştirdiği ChatGPT'ye karşı en büyük kozu olarak görülüyor.

Gemini; Ultra, Pro ve Nano olmak üzere üç farklı optimizasyona sahip. Böylece veri merkezlerinden mobil cihazlara kadar pek çok farklı seviyede ihtiyacı karşılayabilmesi için tasarlandı.

Çok daha karmaşık görevler için en büyük model olan Gemini Ultra kullanılabilir. Çeşitli görevlerde Gemini Pro'nun kullanılması öngörülürken, mobil cihazlarda en verimli model de Gemini Nano olarak görülüyor.

Kurumsal müşteriler için Gemini Pro

Dün çevrimiçi basın toplantısı düzenleyen Google araştırmacıları, Gemini 1.0 diye anılan sürümün kapasitesine dair genel bir özet sundu.

Buna göre Gemini Ultra, Gemini'ın amiral gemisi modeli. Pro ise daha "hafif" bir model.

Gemini Pro'yu denemek için en kolay yer Google'ın ChatGPT'ye rakip olan sohbet botu Bard. Sohbet botu dün itibarıyla Gemini Pro'nun ince ayarlı bir sürümüyle desteklenmeye başladı.

Google Asistan ve Bard Genel Müdürü Sissie Hsiao, ince ayarlı Gemini Pro'nun, Bard'ın ardındaki önceki modele kıyasla daha gelişmiş muhakeme, planlama ve anlama yetenekleri sunduğunu söyledi.

Öte yandan bu iyileştirmelerin hiçbiri bağımsız gazeteciler tarafından doğrulanamadı. Zira Google, muhabirlerin modelleri tanıtılmadan önce test etmelerine izin vermedi ve basın toplantısı sırasında canlı demolar da göstermedi.

Gemini Pro ayrıca Google'ın makine öğrenimi platformu Vertex AI'ı kullanan kurumsal müşteriler için de 13 Aralık'ta piyasaya sürülecek.

Mobil cihazlar için Gemini Nano

Nano modeliyse mobil cihazlarda çalışacak şekilde saflaştırılmış.

Gemini Nano, şimdilik Android 14'e özel olarak, Google'ın kısa süre önce yayınladığı AI Core uygulaması aracılığıyla kullanıcıya sunulacak.

Modeli uygulamalarına dahil etmek isteyen Android geliştiricileri, programa erkenden kısa bir göz atmak için kaydolabiliyor.

Model, ilk olarak Google'ın Pixel 8 Pro'sunda ve gelecekte diğer Android cihazlarda kullanılabilecek. Modelin özetleme ve mesajlaşma uygulamalarında yanıtlar oluşturmak üzere kullanılabileceği düşünülüyor.

ChatGPT'den daha mı yetenekli?

Hsiao'nun sunumunda Gemini Pro'nun içeriği özetleme, beyin fırtınası yapma ve yazma gibi görevlerde OpenAI'ın GPT-3,5 modelinden daha yetenekli olduğu savunuldu.

Ayrıca ilkokul seviyesinde matematik yeteneğinin de daha iyi olduğu iddia edildi.

OpenAI, GPT-3,5 modelini geçen yıl piyasaya sürmüştü.

Bu noktada Gemini Ultra modeli de OpenAI'ın dil modelinin son sürümü GPT-4'le kıyaslanıyor.

Google'ın yapay zeka yan şirketi DeepMind'ın ürün başkan yardımcısı Eli Collins, Gemini Ultra'nın metin, görsel, ses ve kodlardaki "incelikli" bilgileri kavrayabildiğini söyledi.

Collins modelin özellikle de matematik ve fizik gibi "karmaşık" konularla ilgili soruları yanıtlayabildiğini iddia ediyor.

Buna göre Gemini Ultra, konuşmaları da yazıya dökebiliyor ve ses ya da videolarla ilgili soruları (örneğin "Bu videoda neler söyleniyor?") yanıtlayabiliyor.

Google, Gemini Pro'nun halka sunulmadan önce bir dizi standart için karşılaştırma testinden geçirildiğini ve bu testlerin 8'inden 6'sında GPT-3,5'ten daha iyi performans gösterdiğini söylüyor.

Öte yandan Google, Gemini modelini eğitmede kullanılan verilerin nasıl toplandığı ve nereden geldiği gibi soruları yanıtlamayı defalarca reddetti.

Collins, verilerin en azından bir kısmının halka açık internet kaynaklarından geldiğini ve Google'ın bunları inceleyerek kaliteli verileri ayrıştırdığını, uygunsuz olanlarınsa filtrelendiğini dile getirdi.

Gemini'ın eğitim verilerine farkında olmadan katkıda bulunmuş olabilecek içerik üreticilerinin telif isteyip istemeyeceğiyse bilinmiyor.

Şirketin en verimli üretken yapay zeka modeli

Dün yayımlanan teknik incelemeye göre Gemini Pro'nun eğitimi "birkaç hafta" sürdü. Gemini Ultra'nın eğitimiyse muhtemelen çok daha fazla vakit aldı.

Collins, Gemini'ın Google'ın bugüne kadarki "en verimli" büyük üretken yapay zeka modeli olduğunu söyledi. Metin, görüntü ve ses gibi çeşitli içerik türleri üretebilen yapay zeka sistemlerin tümüne üretken yapay zeka (generative AI) adı veriliyor. Bu teknoloji ilk kez 1960'larda sohbet botlarıyla tanıtılmıştı.

Collins ayrıca modelin maliyetinin de öncüllerine göre daha az olduğunu vurguladı.

Öte yandan onu eğitmek için kaç tane çip kullanıldığı ve tam olarak ne kadara mal olduğu açıklanmadı. Eğitim sürecinin çevresel etkisine de değinilmedi.

Daha önce araştırmacılar, GPT-4 boyutunda bir modelin eğitiminin 15 tondan fazla karbondioksit yaydığını ortaya çıkarmıştı. Bu yaklaşık bin Amerikalının yıllık emisyonuna eşdeğer.

Google'ın konuyla ilgili soruları yanıtlamayı reddetmesiyse merakı kamçılıyor.

Bard'ı nasıl güçlendirecek?

Gemini'ın Bard'a entegrasyonu iki aşamada gerçekleşecek. İlk etapta Bard, Gemini Pro'nun özel olarak ayarlanmış bir sürümüyle yükseltilecek.

Şirket 2024'te, Gemini Ultra'dan başlayarak kullanıcıların en iyi yapay zeka modeline erişmesini sağlayacak Bard Advanced'i tanıtacak.

Bard'ın Gemini Pro'lu sürümü ilk olarak dünya çapında 170'den fazla ülke ve bölgede İngilizce olarak kullanıma sunulacak. Yakın zamanda daha fazla dil desteği eklenmesi bekleniyor.

Yukarıda bahsi geçen basın toplantısında Hsiao, "Bu, Bard'ın lansmanından bu yana kalite alanında yaptığımız en büyük iyileştirme" dedi.

Hsiao, Gemini Pro'nun ilk olarak Bard'daki metin tabanlı istemleri güçlendireceğini, ancak gelecek aylarda çok modlu desteğe (metinler, görseller veya diğer yöntemler) erişebileceğini söyledi.

İnsanlardan iyi kod yazabilen AlphaCode

Google, Gemini üretken yapay zeka modelinin yanı sıra kod yazma aracının yeni sürümü AlphaCode 2'yi de duyurdu.

Bu modeli yaklaşık bir yıl önce Google'ın DeepMind laboratuvarı tanıtmıştı.

Programın daha önce katıldığı yarışmalarda insanlardan daha iyi kod yazabildiği görülmüştü. 

Nitekim AlphaCode 2'nin de Python, Java, C++ ve Go'nun da aralarında yer aldığı dillerde kodlama yapabildiği ve rakiplerin yüzden 85'inden daha iyi performans gösterdiği belirtildi.

Yeni sürümün Gemini modeliyle güçlendirildiği söyleniyor.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe