4 soruda Meta'nın en gelişmiş yapay zeka modeli Llama 3.1 405B

Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)
Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)
TT

4 soruda Meta'nın en gelişmiş yapay zeka modeli Llama 3.1 405B

Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)
Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)

Meta bugüne kadar çıkardığı en gelişmiş geniş dil modeli Llama 3.1 405B'yi dün piyasaya sürdü. 

Şirketin "dünyanın en büyük ve becerikli açık temel modeli" olduğunu öne sürdüğü yeni araç, ChatGPT gibi rakiplerini yakalamış görünüyor. 

Meta'nın önceki modellerinde olduğu gibi, Llama 3.1 405B; Amazon Web Services, Azure ve Google Cloud gibi bulut platformlarından indirilip kullanılabiliyor. 

Aynı aileden diğer araçların güncellenmiş versiyonlarıyla beraber tanıtılan Llama 3.1 405B, teknoloji meraklıları arasında heyecan dalgasına yol açtı. 

Öte yandan Meta'nın önceki modelleri gibi ücretsiz olan yeni model, bazı soru işaretlerini de beraberinde getirdi. 

Yeni aracın özelliklerinden şirketin tartışmalara yol açan açık kaynak kullanımına kadar, Llama 3.1 405B'yle ilgili bilinenleri derledik.

1) Neler yapabiliyor?

Llama 3.1 405B, yüksek kalitede bilgisayar kodu yazmanın yanı sıra daha önceki modellerden daha karmaşık matematik problemlerini çözebiliyor. 

Yeni modelin en çok göze çarpan özelliklerinden biriyse dil kapasitesi. Farklı dillerde eğitilen araç; İngilizce, Almanca, Fransızca, İtalyanca, Portekizce, Hintçe, İspanyolca ve Tayca iletişim kurabiliyor. 

Bu Facebook'un çatı kuruluşu için önemli bir adım olsa da rakibi OpenAI'ın ChatGPT'si 80'den fazla dilde sorguları yanıtlıyor. 

Llama 3.1 405B, 405 milyar parametresiyle açık kaynaklı yapay zeka modelleri arasında öne çıkıyor. Yapay zeka alanında bir modelin problem çözme becerisini gösteren parametre, modelin eğitim sırasında öğrendiği değişkenleri ifade ediyor.

Meta'nın Llama modellerinin en büyük rakipleri arasında yer alan ChatGPT-4'ün 1 trilyon parametresi olduğu bildirilmişti.

Modelin piyasaya sürülmesiyle beraber yayımlanan bir araştırmada, Llama 3.1 405B'nin bazı alanlarda OpenAI'ın GPT-4o'su ve Anthropic'in Claude 3.5 Sonnet'ini yakaladığı veya geride bıraktığı görüldü.

Örneğin matematik alanındaki bir testte Meta'nın modeli 73,8 alırken, GPT-4o 76,6 ve Claude 3.5 Sonnet ise 71,1 puana ulaştı.

Matematik, fen ve beşeri bilimlerdeki konuları kapsayan başka bir testte yeni araç 88,6, GPT-4o 88,7 ve Claude 3.5 Sonnet de 88,3 puan aldı.

Llama 3.1 405B aynı zamanda önceki sürümlerden daha geniş bir bağlam penceresine sahip. Bağlam penceresi, bir yapay zeka modelinin cevap üretmeden önce ne kadar girdiyi işleyebileceğini ifade ediyor.

Yani yeni model daha uzun metinleri inceleyebiliyor veya özetini çıkarabiliyor. 

Meta'nın en yeni aracı halihazırda sadece yazılı metinlerle çalışabiliyor. Fakat dün yayımlanan makalede, fotoğraf ve videoları da tanıyabilen araçların geliştirildiği ifade ediliyor.

2) Ne kadar "açık" kaynaklı?

Meta en yeni yapay zeka aracını, aynı aileden Llama 3.1 8B ve Llama 3.1 70B adlı daha küçük iki sürümün geliştirilmiş versiyonlarıyla birlikte çıkardı. Nisanda piyasaya sürülen bu araçlar daha düşük parametrelere sahip fakat bağlam pencereleri 405B'yle aynı. 

Şirket yaptığı açıklamada "Artık açık kaynağın öncülük ettiği yeni bir çağ başlatıyoruz" ifadelerini kullanarak ekledi: 

Dünyanın en büyük ve en becerikli açık temel modeli olduğuna inandığımız Meta Llama 3.1 405B'yi herkesin kullanımına açık olarak yayımlıyoruz.

Temel model, bir modelin başka yapay zeka uygulamalarını geliştirmede kullanılabileceği anlamına geliyor. 

Modelin açık kaynaklı olması ücret ödemeden ulaşılabileceğini ifade etse de sektörde aracın ekonomik getirisine dair ciddi şüpheler var. 

Bunların başında Llama araçlarını çalıştırmak için gereken grafik işlemci birimi (GPU) sayısı geliyor. Modeller çok büyük olduğu için bir tane GPU'nun yetmediği söyleniyor. Örneğin Llama 3'ün 70 milyar parametreli versiyonu, iki adet üst düzey Nvidia GPU'yla çalıştırılabiliyor. 

Bu durum hem daha fazla GPU'ya para ödenmesini hem de yapay zeka işlemlerinin bunlar arasında bölünmesini gerektiriyor. 

Meta bu sorunu çözmek adına çeşitli şirketlerle işbirliği yapıyor. Örneğin donanım şirketi Groq, Nvidia'nın GPU'larına alternatif olarak ürettiği çiplerle hem masrafları azaltıyor hem de yapay zeka aracını hızlandırıyor.

Fakat kullanıcılar bu uygulamayı, OpenAI, Anthropic ve Google Gemini gibi tescilli bir modele erişmeye benzetiyor. Daha önce bazı geliştiriciler Llama 3.1 70B'yi kullanmanın, daha yetenekli ChatGPT-4'ten daha maliyetli olduğunu öne sürmüştü. 

Meta'nın yapay zeka modellerinin esasen ne kadar açık kaynaklı olduğuyla ilgili en önemli tartışmalardan biri de ticari lisanslamadan çıkıyor. 

Şirketin önceki Llama sürümlerinde modeli indirip kullanmak ücretsizken, başka yapay zeka uygulamalarını geliştirmek için ayrı bir lisans alınması gerekiyordu. Bu kısıtlama sektörde tepkilere yol açmış ve Meta'nın "açık kaynaklı yazılım" ifadesini çarpıttığı dile getirilmişti.

Halihazırda Llama 3.1 405B'nin böyle bir lisans gerektirip gerektirmeyeceği bilinmiyor. 

3) Sektöre yön verebilir mi? 

Meta'nın CEO'su Mark Zuckerberg dün yayımladığı mektubunda "Gelecek yıldan itibaren, ilerideki Llama modellerinin sektörün en gelişmiş modelleri olmasını bekliyoruz" diye yazarak şöyle ekliyor:

Ancak bundan önce bile Llama açıklık, değiştirilebilirlik ve maliyet verimliliği alanlarında lider konumda.

Teknoloji devi, rakiplerini yakalamak adına ücretsiz yapay zeka modelleri piyasaya sürerek başarılı bir yolda ilerliyor gibi görünüyor. Şirkete göre bugüne kadar Llama modelleri 300 milyondan fazla kez indirildi ve bunlardan en az 20 bin yapay zeka uygulaması geliştirildi. 

Meta üretken yapay zeka alanını açık kaynaklı bir yere çekmeye çalışıyor fakat Llama modelleri, üst düzey problemleri çözmede diğer araçların becerilerine yetişemiyor. Öte yandan bazı teknoloji yazarları bu çabaların, Meta'nın "üretken yapay zekayla eş anlamlı hale gelme" hedefine katkı sağladığını düşünüyor. 

Zuckerberg her ne kadar geleceğe umutlu baksa da diğer şirketlerin çalışmaları ümitlerini suya düşürebilir. 

Google halihazırda sadece metin ya da görüntü üretmekle kalmayıp eyleme geçebilen Project Astra adlı yapay zeka aracı üzerine çalışıyor. Modelin sonbaharda deneme amaçlı bazı kullanıcılara sunulacağı söylenirken, OpenAI'ın hazırladığı GPT-5'in de bu özelliğe sahip olması bekleniyor. 

Meta'nın modellerinin ek masraflar yaratmasının yanı sıra açık kaynaklı modellerle ilgili ciddi güvenlik endişeleri de var. 

Örneğin sisteme yerleştirilen güvenlik kalkanlarının kaldırılması, açık kaynaklarda daha kolay. Ayrıca daha büyük modeller daha yüksek bir risk yaratırken, biyolojik silah tarifi önermek veya kötü amaçlı yazılım kodu geliştirmek daha muhtemel hale geliyor. 

4) Sentetik veri kullanımı neden tepki topluyor?

Llama 3.1 405B, daha önceki bazı modeller gibi 16 bin adet Nvidia H100 GPU ve 15 trilyon jeton (token) içeren verisetiyle eğitildi. 

Yapay zeka alanında jetonlar, kelime bölümlerini ifade ediyor. 15 trilyon jetonsa yaklaşık 75 milyar kelimeye denk geliyor. 

Şirket aynı zamanda sentetik veri, yani insan tarafından değil, başka yapay zeka araçları tarafından oluşturulan verileri de kullandı. 

OpenAI ve Anthropic gibi şirketler de bu tarz verileri kullanma yolları ararken, bu çabalar sektörde eleştirilerle karşılaşıyor. 

Sentetik verilerin, kullanıcıların gizliliğini koruma ve daha geniş bir veri kümesine sahip olma gibi faydaları var.

Öte yandan bunun, yapay zeka modellerinin gerçek dünyayla ilgili sorunları çözmede geri kalmasına yol açacağı düşünülüyor. Ayrıca sentetik verilerin, modelleri daha yanlı hale getireceğinden endişeleniliyor. 

Meta, Llama 3.1 405B'nin eğitildiği verileri "dikkatle dengelediğini" öne sürse de bunların tam olarak nereden geldiğini açıklamadı. 

Bu verilerinin ayrıntıları fikri mülkiyetle ilgili davalara yol açabileceğinden şirketler bunları gizli tutmak durumda kalabiliyor. 

Meta'nın araçlarını Facebook ve Instagram göderileriyle eğitmesi tartışmalara yol açarken, telifli içerikleri kullanması da ayrı bir problem yaratıyor. 

Geçen yıl aralıkta Reuters, avukatların uyarılarına rağmen şirketin telifli elektronik kitapları kullandığını bildirmişti. Ayrıca geçen yıl bazı yazarlar, OpenAI ve Meta'ya telif hakkı ihlali gerekçesiyle dava açmıştı.

Independent Türkçe, TechCrunch, Fortune, Reuters, Register, Meta, Forbes, Gazete Duvar



Evrimin faturası: İnsan beyni büyüdükçe daha hızlı yaşlanıyor

Beynin, hayatta kalmada kritik rol oynayan bölgeleri, ilk bozulanlar gibi görünüyor (Pixabay)
Beynin, hayatta kalmada kritik rol oynayan bölgeleri, ilk bozulanlar gibi görünüyor (Pixabay)
TT

Evrimin faturası: İnsan beyni büyüdükçe daha hızlı yaşlanıyor

Beynin, hayatta kalmada kritik rol oynayan bölgeleri, ilk bozulanlar gibi görünüyor (Pixabay)
Beynin, hayatta kalmada kritik rol oynayan bölgeleri, ilk bozulanlar gibi görünüyor (Pixabay)

İnsan beyninin daha fazla büyüyen bölgelerinin daha hızlı yaşlandığı saptandı. 

6 ila 7 milyon yıl önce ortaya çıkan insanları, yakın akrabaları olan diğer primatlardan ayıran en önemli özelliklerden biri büyük bir beyne sahip olması. 

Milyonlarca yıllık evrim sürecinde büyümekle kalmayıp karmaşık bir yapıya da bürünen insan beyni, dille iletişim kurmaktan geleceği planlamaya kadar pek çok avantaj sağlıyor.

Öte yandan hakemli dergi Science Advances'ta yayımlanan yeni bir çalışmaya göre, bütün bunların bir bedeli de var. 

İnsan ve diğer primatların beyninin nasıl yaşlandığını gözlemlemek isteyen araştırmacılar, 480 insan ve 189 şempanzenin beyin taramalarını inceledi. 

Şempanzeler, insanların atası değil fakat iki tür de ortak bir atadan evrimleşti. İnsan beyni ise, şempanzelerinkinin üç katı büyüklükte.

Bilim insanları iki beyinde de 17 ayrı bölge olduğunu kaydetti. Bunların bazıları eşit boyuttayken, bir kısmı insanlarda daha geniş bir alana yayılmıştı. 

Bunlardan biri de gözlerin hemen arkasında yer alan ve karar vermede kritik rol oynayan orbitofrontal korteksti. 

Ardından yaşlanma sürecini inceleyen ekip, iki türün beyninin de zaman içinde küçüldüğünü gözlemledi. 

Ancak bazı kısımlar daha hızlı küçülürken, insan beynindeki en hızlı yaşlanmanın, orbitofrontal korteks ve evrimsel süreçte daha fazla büyümenin görüldüğü diğer bölgelerde gerçekleştiği bulundu.

Araştırmacılar ayrıca babun ve Hint şebeğinin beynini de şempanzelerle karşılaştırdı. Öte yandan bu kıyaslarda, beyin genişlemesi ve yaşa bağlı gerileme arasında bir ilişki saptanmadı. 

Heinrich Heine Düsseldorf Üniversitesi'nden ve çalışmanın yazarlarından Dr. Sam Vickery, beynin en hızlı genişleyen bölümlerinin, en karmaşık işlerden sorumlu olduğunu söylüyor. Bu durum, sözkonusu bölgelerin daha çabuk yıpranıp küçülmesini açıklayabilir.

Ancak insan beynindeki daha büyük kısımların neden daha hızlı küçüldüğünü açıklamak için daha fazla çalışmaya ihtiyaç var. 

Çalışmada yer almayan bazı uzmanlar da bulguların daha fazla katılımcıyla desteklenmesi gerektiğini düşünüyor. University College London'dan antropolog Dr. Aida Gomez-Robles "İnsanlardaki yaşlanmaya ilişkin benzer çalışmalar genellikle binlerce kişiyi içeriyor" diyerek ekliyor:

Bulgular, bu bölgelerin bazıları için geçerli ancak hepsi için geçerli olup olmadığını bilmiyoruz.

Bulguların kesin bir şekilde doğrulanması halinde ilginç bir durum da ortaya çıkıyor: İnsanların hayatta kalma şansını artırarak şempanzelerden daha uzun ömürlü olmasını sağlayan bölgeler, aynı zamanda ilk yaşlanan kısımlar.

Yaşın ilerlemesiyle ortaya çıkan bazı sorunlar, evrimin bir avantajla beraber bir dezavantaj da getirmesinin sonucu olabilir. Dr. Vickery şu ifadeleri kullanıyor:

Böyle muhteşem bir beynimiz var ama bunun bir bedeli de var.

Independent Türkçe, Science Alert, New York Times, Science Advances