4 soruda Meta'nın en gelişmiş yapay zeka modeli Llama 3.1 405B

Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)
Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)
TT

4 soruda Meta'nın en gelişmiş yapay zeka modeli Llama 3.1 405B

Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)
Meta üretken yapay zeka alanını, açık kaynaklı bir yöne çekmek istiyor (Reuters)

Meta bugüne kadar çıkardığı en gelişmiş geniş dil modeli Llama 3.1 405B'yi dün piyasaya sürdü. 

Şirketin "dünyanın en büyük ve becerikli açık temel modeli" olduğunu öne sürdüğü yeni araç, ChatGPT gibi rakiplerini yakalamış görünüyor. 

Meta'nın önceki modellerinde olduğu gibi, Llama 3.1 405B; Amazon Web Services, Azure ve Google Cloud gibi bulut platformlarından indirilip kullanılabiliyor. 

Aynı aileden diğer araçların güncellenmiş versiyonlarıyla beraber tanıtılan Llama 3.1 405B, teknoloji meraklıları arasında heyecan dalgasına yol açtı. 

Öte yandan Meta'nın önceki modelleri gibi ücretsiz olan yeni model, bazı soru işaretlerini de beraberinde getirdi. 

Yeni aracın özelliklerinden şirketin tartışmalara yol açan açık kaynak kullanımına kadar, Llama 3.1 405B'yle ilgili bilinenleri derledik.

1) Neler yapabiliyor?

Llama 3.1 405B, yüksek kalitede bilgisayar kodu yazmanın yanı sıra daha önceki modellerden daha karmaşık matematik problemlerini çözebiliyor. 

Yeni modelin en çok göze çarpan özelliklerinden biriyse dil kapasitesi. Farklı dillerde eğitilen araç; İngilizce, Almanca, Fransızca, İtalyanca, Portekizce, Hintçe, İspanyolca ve Tayca iletişim kurabiliyor. 

Bu Facebook'un çatı kuruluşu için önemli bir adım olsa da rakibi OpenAI'ın ChatGPT'si 80'den fazla dilde sorguları yanıtlıyor. 

Llama 3.1 405B, 405 milyar parametresiyle açık kaynaklı yapay zeka modelleri arasında öne çıkıyor. Yapay zeka alanında bir modelin problem çözme becerisini gösteren parametre, modelin eğitim sırasında öğrendiği değişkenleri ifade ediyor.

Meta'nın Llama modellerinin en büyük rakipleri arasında yer alan ChatGPT-4'ün 1 trilyon parametresi olduğu bildirilmişti.

Modelin piyasaya sürülmesiyle beraber yayımlanan bir araştırmada, Llama 3.1 405B'nin bazı alanlarda OpenAI'ın GPT-4o'su ve Anthropic'in Claude 3.5 Sonnet'ini yakaladığı veya geride bıraktığı görüldü.

Örneğin matematik alanındaki bir testte Meta'nın modeli 73,8 alırken, GPT-4o 76,6 ve Claude 3.5 Sonnet ise 71,1 puana ulaştı.

Matematik, fen ve beşeri bilimlerdeki konuları kapsayan başka bir testte yeni araç 88,6, GPT-4o 88,7 ve Claude 3.5 Sonnet de 88,3 puan aldı.

Llama 3.1 405B aynı zamanda önceki sürümlerden daha geniş bir bağlam penceresine sahip. Bağlam penceresi, bir yapay zeka modelinin cevap üretmeden önce ne kadar girdiyi işleyebileceğini ifade ediyor.

Yani yeni model daha uzun metinleri inceleyebiliyor veya özetini çıkarabiliyor. 

Meta'nın en yeni aracı halihazırda sadece yazılı metinlerle çalışabiliyor. Fakat dün yayımlanan makalede, fotoğraf ve videoları da tanıyabilen araçların geliştirildiği ifade ediliyor.

2) Ne kadar "açık" kaynaklı?

Meta en yeni yapay zeka aracını, aynı aileden Llama 3.1 8B ve Llama 3.1 70B adlı daha küçük iki sürümün geliştirilmiş versiyonlarıyla birlikte çıkardı. Nisanda piyasaya sürülen bu araçlar daha düşük parametrelere sahip fakat bağlam pencereleri 405B'yle aynı. 

Şirket yaptığı açıklamada "Artık açık kaynağın öncülük ettiği yeni bir çağ başlatıyoruz" ifadelerini kullanarak ekledi: 

Dünyanın en büyük ve en becerikli açık temel modeli olduğuna inandığımız Meta Llama 3.1 405B'yi herkesin kullanımına açık olarak yayımlıyoruz.

Temel model, bir modelin başka yapay zeka uygulamalarını geliştirmede kullanılabileceği anlamına geliyor. 

Modelin açık kaynaklı olması ücret ödemeden ulaşılabileceğini ifade etse de sektörde aracın ekonomik getirisine dair ciddi şüpheler var. 

Bunların başında Llama araçlarını çalıştırmak için gereken grafik işlemci birimi (GPU) sayısı geliyor. Modeller çok büyük olduğu için bir tane GPU'nun yetmediği söyleniyor. Örneğin Llama 3'ün 70 milyar parametreli versiyonu, iki adet üst düzey Nvidia GPU'yla çalıştırılabiliyor. 

Bu durum hem daha fazla GPU'ya para ödenmesini hem de yapay zeka işlemlerinin bunlar arasında bölünmesini gerektiriyor. 

Meta bu sorunu çözmek adına çeşitli şirketlerle işbirliği yapıyor. Örneğin donanım şirketi Groq, Nvidia'nın GPU'larına alternatif olarak ürettiği çiplerle hem masrafları azaltıyor hem de yapay zeka aracını hızlandırıyor.

Fakat kullanıcılar bu uygulamayı, OpenAI, Anthropic ve Google Gemini gibi tescilli bir modele erişmeye benzetiyor. Daha önce bazı geliştiriciler Llama 3.1 70B'yi kullanmanın, daha yetenekli ChatGPT-4'ten daha maliyetli olduğunu öne sürmüştü. 

Meta'nın yapay zeka modellerinin esasen ne kadar açık kaynaklı olduğuyla ilgili en önemli tartışmalardan biri de ticari lisanslamadan çıkıyor. 

Şirketin önceki Llama sürümlerinde modeli indirip kullanmak ücretsizken, başka yapay zeka uygulamalarını geliştirmek için ayrı bir lisans alınması gerekiyordu. Bu kısıtlama sektörde tepkilere yol açmış ve Meta'nın "açık kaynaklı yazılım" ifadesini çarpıttığı dile getirilmişti.

Halihazırda Llama 3.1 405B'nin böyle bir lisans gerektirip gerektirmeyeceği bilinmiyor. 

3) Sektöre yön verebilir mi? 

Meta'nın CEO'su Mark Zuckerberg dün yayımladığı mektubunda "Gelecek yıldan itibaren, ilerideki Llama modellerinin sektörün en gelişmiş modelleri olmasını bekliyoruz" diye yazarak şöyle ekliyor:

Ancak bundan önce bile Llama açıklık, değiştirilebilirlik ve maliyet verimliliği alanlarında lider konumda.

Teknoloji devi, rakiplerini yakalamak adına ücretsiz yapay zeka modelleri piyasaya sürerek başarılı bir yolda ilerliyor gibi görünüyor. Şirkete göre bugüne kadar Llama modelleri 300 milyondan fazla kez indirildi ve bunlardan en az 20 bin yapay zeka uygulaması geliştirildi. 

Meta üretken yapay zeka alanını açık kaynaklı bir yere çekmeye çalışıyor fakat Llama modelleri, üst düzey problemleri çözmede diğer araçların becerilerine yetişemiyor. Öte yandan bazı teknoloji yazarları bu çabaların, Meta'nın "üretken yapay zekayla eş anlamlı hale gelme" hedefine katkı sağladığını düşünüyor. 

Zuckerberg her ne kadar geleceğe umutlu baksa da diğer şirketlerin çalışmaları ümitlerini suya düşürebilir. 

Google halihazırda sadece metin ya da görüntü üretmekle kalmayıp eyleme geçebilen Project Astra adlı yapay zeka aracı üzerine çalışıyor. Modelin sonbaharda deneme amaçlı bazı kullanıcılara sunulacağı söylenirken, OpenAI'ın hazırladığı GPT-5'in de bu özelliğe sahip olması bekleniyor. 

Meta'nın modellerinin ek masraflar yaratmasının yanı sıra açık kaynaklı modellerle ilgili ciddi güvenlik endişeleri de var. 

Örneğin sisteme yerleştirilen güvenlik kalkanlarının kaldırılması, açık kaynaklarda daha kolay. Ayrıca daha büyük modeller daha yüksek bir risk yaratırken, biyolojik silah tarifi önermek veya kötü amaçlı yazılım kodu geliştirmek daha muhtemel hale geliyor. 

4) Sentetik veri kullanımı neden tepki topluyor?

Llama 3.1 405B, daha önceki bazı modeller gibi 16 bin adet Nvidia H100 GPU ve 15 trilyon jeton (token) içeren verisetiyle eğitildi. 

Yapay zeka alanında jetonlar, kelime bölümlerini ifade ediyor. 15 trilyon jetonsa yaklaşık 75 milyar kelimeye denk geliyor. 

Şirket aynı zamanda sentetik veri, yani insan tarafından değil, başka yapay zeka araçları tarafından oluşturulan verileri de kullandı. 

OpenAI ve Anthropic gibi şirketler de bu tarz verileri kullanma yolları ararken, bu çabalar sektörde eleştirilerle karşılaşıyor. 

Sentetik verilerin, kullanıcıların gizliliğini koruma ve daha geniş bir veri kümesine sahip olma gibi faydaları var.

Öte yandan bunun, yapay zeka modellerinin gerçek dünyayla ilgili sorunları çözmede geri kalmasına yol açacağı düşünülüyor. Ayrıca sentetik verilerin, modelleri daha yanlı hale getireceğinden endişeleniliyor. 

Meta, Llama 3.1 405B'nin eğitildiği verileri "dikkatle dengelediğini" öne sürse de bunların tam olarak nereden geldiğini açıklamadı. 

Bu verilerinin ayrıntıları fikri mülkiyetle ilgili davalara yol açabileceğinden şirketler bunları gizli tutmak durumda kalabiliyor. 

Meta'nın araçlarını Facebook ve Instagram göderileriyle eğitmesi tartışmalara yol açarken, telifli içerikleri kullanması da ayrı bir problem yaratıyor. 

Geçen yıl aralıkta Reuters, avukatların uyarılarına rağmen şirketin telifli elektronik kitapları kullandığını bildirmişti. Ayrıca geçen yıl bazı yazarlar, OpenAI ve Meta'ya telif hakkı ihlali gerekçesiyle dava açmıştı.

Independent Türkçe, TechCrunch, Fortune, Reuters, Register, Meta, Forbes, Gazete Duvar



Epifiz bezinin kökeni eski omurgalının ikinci göz çifti olabilir

Myllokunmingia gözleri sayesinde avcılardan kaçma şansını artırıyordu (Xiangtong Lei/Sihang Zhang)
Myllokunmingia gözleri sayesinde avcılardan kaçma şansını artırıyordu (Xiangtong Lei/Sihang Zhang)
TT

Epifiz bezinin kökeni eski omurgalının ikinci göz çifti olabilir

Myllokunmingia gözleri sayesinde avcılardan kaçma şansını artırıyordu (Xiangtong Lei/Sihang Zhang)
Myllokunmingia gözleri sayesinde avcılardan kaçma şansını artırıyordu (Xiangtong Lei/Sihang Zhang)

Bilinen en eski omurgalının 4 gözü olduğu tespit edildi. 

Örümceklerin 8, arıların 5, kutu denizanalarının ise 24 gözü var. Ancak bu istisnaların dışında yeryüzündeki çoğu hayvan sadece iki göze sahip.

Öte yandan bilim insanları, omurgalıların zaman içinde diğer gözlerini kaybederek bugünkü görünümüne ulaştığını söylüyor.

518 milyon yıl önce yaşayan Myllokunmingia, dünyanın bilinen en eski omurgalısı. İlk omurgalıların yanı sıra pek çok omurgasız türün de ortaya çıktığı Kambriyen Dönemi'nde yaşayan bu deniz canlıları, bugünkü Çin'in yakınlarındaki sularda dolaşıyordu.

Çin ve Birleşik Krallık'tan araştırmacılar, Çin'in güneyindeki Chengjiang formasyonunda keşfedilen 10 ayrı Myllokunmingia fosilini analiz etti. Bunların 6'sı Haikouichthys ercaicunensis türüne aitken, diğerleri kesin olarak tanımlanamadı.

Göz gibi yumuşak vücut parçaları nadiren korunuyor ancak bilim insanları bu fosillerde göz kalıntıları elde etmeyi başardı.

İleri mikroskop teknikleri ve kimyasal analizler kullanan ekip, hayvanın yüzünün her iki yanında iki büyük göz ve yüzün ortasında iki küçük göz bulunduğunu saptadı.

Bulguları hakemli dergi Nature'da yayımlanan çalışmanın başyazarı Peiyun Cong "Anatomilerini anlamak için işe büyük gözleri inceleyerek başladık ve aralarında iki küçük, tamamen işlevsel göz bulmak tam bir sürpriz oldu" diyerek ekliyor: 

Bunu görmek inanılmaz derecede heyecan vericiydi.

Gözlerin hepsinde melanozom tespit eden araştırmacılar, bu organların "kamera tipi" olduğunu, yani görebilmek için ışığa ihtiyaç duyduğunu saptadı. Bu organeller vücudun çeşitli yerlerinde bulunurken, gözdekiler ışığın emilmesinden ve göz renginden sorumlu.

Ardından gözlerde tespit edilen dairesel yapıların da lens olduğu düşünülüyor. Bu sayede gözler muhtemelen ışığı algılamakla kalmayıp görüntü de oluşturabiliyordu. 

Bilim insanları bu deniz canlısının gelişmiş gözleri sayesinde diğer hayvanlara yem olmaktan kurtulduğunu düşünüyor. Kambriyen patlaması sonucu bu dönemde pek çok büyük yırtıcı tür ortaya çıkmıştı.

Makalenin bir diğer yazarı Jakob Vinther "Böyle bir ortamda 4 göze sahip olmak, bu hayvanlara daha geniş bir görüş alanı sağlamış olabilir ve bu da avcılardan kaçınmada önem taşıyor" diye açıklıyor.

Araştırmacılar ikinci göz çiftinin, bazı modern omurgalılardaki göz benzeri ilkel bir yapının ve insanlarda melatonin salgılayan epifiz bezinin evrimsel kökeni olabileceğini düşünüyor.

Bugünkü bazı balıklar, sürüngenler ve amfibiler, ışığı algılamaktan sorumlu paryetal göze sahip. Bu gözün bağlı olduğu epifiz bezi, insanlarda ve pek çok omurgalıda melatonin üreterek uyumaya yardımcı oluyor.

Cong "Epifiz organları ilk başta görüntü üreten gözlermiş" diyerek ekliyor:

Ancak evrimin ilerleyen aşamalarında küçüldüler, görme yeteneklerini kaybettiler ve uykuyu düzenlemedeki modern rollerini üstlendiler.

Independent Türkçe, Live Science, Discover Magazine, Nature


Devasa dinozorun büyük burnunun gizemi çözüldü

Triceratopslar, 2 metreden fazla boya ve 8 metrenin üzerinde uzunluğa ulaşabiliyordu (Carnegie Doğa Tarihi Müzesi)
Triceratopslar, 2 metreden fazla boya ve 8 metrenin üzerinde uzunluğa ulaşabiliyordu (Carnegie Doğa Tarihi Müzesi)
TT

Devasa dinozorun büyük burnunun gizemi çözüldü

Triceratopslar, 2 metreden fazla boya ve 8 metrenin üzerinde uzunluğa ulaşabiliyordu (Carnegie Doğa Tarihi Müzesi)
Triceratopslar, 2 metreden fazla boya ve 8 metrenin üzerinde uzunluğa ulaşabiliyordu (Carnegie Doğa Tarihi Müzesi)

Bilim insanları Triceratops'un burnunun, koku alma dışında sıcaklık ve nemi kontrol ettiği için çok büyük olduğunu buldu.

Devasa otobur dinozorlar olan Triceratops'un en dikkat çekici özelliği büyük kafaları ve burunlarıydı. 

Tokyo Üniversitesi'nden Seishiro Tada, Geç Kretase döneminde yaşayan Ceratopsia grubuna ait olan bu dinozorlar hakkında şöyle diyor: 

Özellikle Triceratops'un çok büyük ve sıradışı bir burnu var ve sürüngenlerin temel yapılarını hatırlasam da organların bunun içine nasıl sığdığını anlayamıyordum.

Tada ve ekibi, bu hayvanların burnunun anatomisini ilk kez kapsamlı bir şekilde inceledikleri bir çalışma yürüttü.

Bilim insanları bilgisayarlı tomografiden yararlanarak fosilleri inceledi. Ayrıca burun yapısını daha iyi anlamak için bugün yaşayan sürüngenlere ait verilere de başvurdular.

Bulguları hakemli dergi The Anatomical Record'da yayımlanan çalışmaya göre Triceratops'un sinirleri, diğer sürüngenlerden farklı bir bağlantıya sahipti.

Çoğu sürüngende sinirler ve kan damarları çeneyle burundan geçerek burun deliklerine ulaşıyor. Ancak Triceratops'un kafatası şekli çene yolunu engelleyerek sinir ve damarların burundan ilerlemesine neden oluyordu. 

Tada "Triceratops dokuları büyük burnunu desteklemek için bu şekilde evrimleşti" diye açıklıyor.

Fosil örneklerinde, neredeyse başka hiçbir dinozorda görülmeyen özel bir yapı da keşfedildi. 

Solunum türbinatı adı verilen bu ince, kıvrımlı yapılar, kanı beyne ulaşmadan önce soğutarak nemin kaybolup gitmesinin önüne geçiyordu. 

Araştırmacılar hem bu yapıların hem de sinir ve damarların rotasının değişmesinin, devasa dinozorun vücut sıcaklığını ve nemi kontrol altında tutmaya yaradığını düşünüyor.

Özellikle Geç Kretase'nin nemli sıcağında büyük kafalarını serinletmek üzere evrimleşmişler. 

Yeni çalışma, dinozorların yumuşak doku anatomisi hakkındaki önemli bir boşluğu dolduruyor. 

Araştırmacılar daha sonraki çalışmalarda bu ilginç hayvanların kafatasının diğer kısımlarına dair gizemleri aydınlatmayı umuyor.

Independent Türkçe, Phys.org, Science Blog, The Anatomical Record


Stephen King uyarlaması korku dizisi için takvim netleşiyor

Dışlanmış lise öğrencisi Carrie White'ın ürkütücü hikayesini anlatan 2013 yapımı Carrie: Günah Tohumu'nda (Carrie) başrolde Chloë Grace Moretz yer almıştı (Sony Pictures Releasing)
Dışlanmış lise öğrencisi Carrie White'ın ürkütücü hikayesini anlatan 2013 yapımı Carrie: Günah Tohumu'nda (Carrie) başrolde Chloë Grace Moretz yer almıştı (Sony Pictures Releasing)
TT

Stephen King uyarlaması korku dizisi için takvim netleşiyor

Dışlanmış lise öğrencisi Carrie White'ın ürkütücü hikayesini anlatan 2013 yapımı Carrie: Günah Tohumu'nda (Carrie) başrolde Chloë Grace Moretz yer almıştı (Sony Pictures Releasing)
Dışlanmış lise öğrencisi Carrie White'ın ürkütücü hikayesini anlatan 2013 yapımı Carrie: Günah Tohumu'nda (Carrie) başrolde Chloë Grace Moretz yer almıştı (Sony Pictures Releasing)

Korku türünün son yıllarda öne çıkan isimlerinden Mike Flanagan'ın sıradaki Stephen King uyarlaması, mevsimine son derece uygun bir takvimle gelebilir. 

Yapımda rol alan Katee Sackhoff, Amazon Prime Video için hazırlanan Carrie dizisinin yayın takvimine dair net bir işaret verdi.

The Haunting: Tepedeki Ev'in (The Haunting of Hill House) dizi sorumlusu ve yönetmeni olarak da tanınan Flanagan'ın, Carrie'yi bölüm bölüm anlatacak bir uyarlama için bizzat King tarafından seçildiği belirtiliyor. Dizinin çekimleri Ekim 2025'te tamamlandı ve 2026'da yayımlanacağı duyuruldu.

"Sizi güzel bir şey bekliyor"

The Direct'in aktardığına göre Sackhoff, açıklamayı Kanada'nın Vancouver kentindeki Fan Expo'da 14 Şubat'ta yaptı. Bo-Katan Kryze rolüyle Yıldız Savaşları (Star Wars) evreninden de tanınan oyuncu, Flanagan evreni anlamına gelen "Flanniverse" esprisiyle söze girip şu ifadeleri kullandı:

Mike Flanagan'a dönersek... Evet, Flanniverse... Carrie, Ekim 2026'da Amazon'da yayına giriyor. Sizi güzel bir şey bekliyor. Çok iyi. Gerçekten çok iyi.

Flanagan'ın Carrie dizisine dair şimdilik fazla detay yok ancak elbette King'in ikonik Göz (Carrie) romanından uyarlandığı biliniyor. Korku yazarının ilk romanı olan kitapta, genç Carrie, maruz kaldığı acımasız zorbalığın ardından mezuniyet balosunu kabusa çeviriyor.

Dizide Carrie White'ı genç yıldız Summer Howell canlandıracak. Çığlık'la (Scream) tanınan Matthew Lillard ise Müdür Grayle rolüyle kadroda yer alacak. Carrie'nin annesi Margaret'ı, Flanagan'ın diğer projeleriyle de tanınan Amerikalı aktris Samantha Sloyan oynayacak. 

Oyuncu kadrosunda ayrıca Alison Thornton ve Thalia Dudek gibi isimler yer alıyor.

Sackhoff, etkinlikte dizinin tonuna dair ufak bir ipucu da verdi: 

Yani, sonuçta Carrie bu... Ateş var mı? Biraz kan da olabilir.

Ardından şunu ekledi: 

Ben çok heyecanlıyım. Bayılacaksınız. Mike Flanagan işini çok iyi yapıyor.

Oyuncu ayrıca Flanagan'ın özellikle King uyarlamalarındaki başarısına dikkat çekerek, "Stephen ona güveniyor" dedi. Ayrıca şakayla karışık King'in Flanagan'a neredeyse "tüm kütüphanesini" açtığını ima etti: 

Şunu da yap, bunu da yap... Peki ya şu?

Flanagan daha önce Doktor Uyku (Doctor Sleep), Chuck'ın Hayatı (The Life of Chuck) ve Oyun (Gerald's Game) gibi eserleri uyarlamıştı. Şimdiyse Kara Kule (The Dark Tower) uyarlaması üzerinde çalışıyor. Flanagan'ın yakın zamanda söylediğine göre proje "ilerliyor, çok sayıda senaryo hazır ve ilk öncelik konumunda".

Independent Türkçe, GamesRadar, The Direct