Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Yapay zekanın "halüsinasyonları" geliştiricilerin deneyimini aşıyor

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor
TT

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Üretken yapay zeka, kendisini güçlü kılan aynı yaratıcı yeteneklere dayanan yeni bir yazılım başarısızlıkları çağının perdesini aralıyor.

Axios web sitesine göre, her yeni teknoloji beraberinde hataları da getiriyor ancak yapay zeka hataları özellikle çetrefilli ve sinir bozucu olacak çünkü alıştığımızdan tamamen farklı çalışacaklar.

AT&T'nin hücresel ağı ve Google'ın Gemini yapay zeka sohbet robotu geçen hafta canlı yayına geçti.

Perşembe günü saat 03:30 sularında Doğu Yakası'nda AT&T hizmet kesintileri yaşandığına dair haberler geldi ve müşteriler Reddit ve X'te şikayette bulunarak sorunlarını hizmetlerin ne zaman kesildiğini tespit eden bir site olan Downdetector'a kaydettiler.

Etkinin yaygın olduğu görülüyor ve AT&T'nin bir ‘yazılım yapılandırma hatası’ nedeniyle çökmesi, binlerce müşteriyi sabah işe gidip gelirken kablosuz hizmetten yoksun bıraktı.

ABD’deki bazı kullanıcılar da hizmet kesintisi nedeniyle 911'i arayamadı. Sabah 9 itibariyle Downdetector, ABD genelinde 72 binden fazla AT&T kesintisi olduğunu gösteriyordu.

Teknoloji uzmanlarının bu sorunla nasıl başa çıkacaklarını bildikleri ağ kesintileri tanıdık olsa da, Google'ın hatası tamamen farklıydı, çünkü Gemini görüntülerinin yaratıcısı tarihi olmayan çeşitli görüntüler de yarattı. Örneğin, Nazi askerlerini fotoğraflaması istendiğinde, siyah insanların illüstrasyonlarını dahil etti. Askeri üniforma giyiyorlardı ve Papa'yı çizmesi istendiğinde, papalık cübbesi giyen bir kadın görüntüsü ortaya çıktı.

Bu AT&T'ninkinden daha karmaşık bir hataydı. Google, sorunu çözene kadar yapay zeka kullanarak oluşturulan görüntülerin üretimini geçici olarak durdurdu.

Axios'a göre Google, özellikle yapay zekaya göre tüm teröristlerin koyu tenli göründüğü insan görüntüleri dünyasında, her yapay zeka şirketinin yıllar süren utanç verici hatalardan sonra uygulamayı öğrendiklerine çok benzer önlemler alıyordu.

Site, AT&T ve Google olaylarında, insanların bilgisayarlardan yapmalarını istedikleri şeyler nedeniyle sistemlerin başarısız olduğuna dikkati çekti. AT&T'nin kablosuz hizmeti, sistemin yanıt vermemesine neden olan bir hata ya da tutarsızlık içeren yeni bir talimatı takip etmeye çalıştığında çöktü. Bilgisayarların icadından bu yana çoğu bilgisayar arızası bu şekilde meydana gelmiştir.

Ancak Axios, çoğu yapay zeka sisteminin komutlar ve talimatlarla çalışmadığına, bunun yerine çıktıları oluşturmak için olasılıklar kullandığına da dikkati çekti.

Gemini ile müdahale edildi ancak uzmanlar istedikleri sonuçları alamadı.

Üretken yapay zeka "yaratıcılıktan" alıkonulamaz

Site, İkizler’in tarihsel araştırma ile yaratıcılık arasındaki fark hakkında net bir şekilde ‘düşünemediğini’ açıkladı ve "En akıllı sistem ya da makul bir şekilde bilgilendirilmiş herhangi bir insan, Roma'daki Katolik Kilisesi'nin hiçbir zaman erkek olmayan bir papaya sahip olmadığını bilirdi" dedi.

Siteye göre, geleneksel programlar bir sonraki talimatları yürütmek için kod tabanlarına bakarken; Üretken YZ programları daha sonra insanların kendilerine verdiği talimatlara dayanarak bir dizideki bir sonraki kelimeyi veya pikseli ‘tahmin eder.’

Yapay zekaya ince ayar yaparak çıktılarını az ya da çok rastgele hale getirebilirsiniz. Ancak yaratmasını engelleyemezsiniz, aksi takdirde hiçbir şey yapmayacaktır.

Sonuç olarak, yapay zeka modelleri tarafından yapılan seçimler genellikle belirsizdir ve siteye göre yaratıcıları bile nasıl çalıştıklarını tam olarak anlamamaktadır, bu nedenle geliştiriciler örneğin görüntü sonuçlarını çeşitlendirmek veya siyasi propaganda ve nefret söylemini sınırlamak için ‘korkuluklar’ eklemeye çalıştıklarında, müdahaleleri ters etki yaratabilecek sonuçlara yol açıyor. Ancak müdahale etmemek de yanlı ve rahatsız edici sonuçlara yol açmaya devam edecek.

Yapay zeka ne kadar çok ‘geliştirilirse, ‘halüsinasyonları’ da o kadar artacak.

Site, gerçekliği doğru bir şekilde temsil etmek ve bilişsel araçlar olarak hizmet etmek için üretken yapay zeka sistemlerini kullanmaya çalıştıkça, sektörün ‘halüsinasyonlar’ ve tarihsel hatalar etrafında sınırlar belirlemeye çalışmasının daha acil hale geldiğine dikkati çekti.

Zaman içinde ve bu uzmanlık alanını öğrendikçe, YZ programcıları modellerini daha gerçekçi ve daha az önyargılı olacak şekilde başarılı bir şekilde evcilleştirebilir ve ince ayar yapabilir. Ancak Axios'a göre, üretken YZ'yi bilişsel çalışmalar için birincil arayüz olarak kullanmak, kafamızı karıştırmaya devam edecek çok kötü bir fikre dönüşebilir.



4 soruda OpenAI'ın "düşünebilen" yeni yapay zeka serisi

OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
TT

4 soruda OpenAI'ın "düşünebilen" yeni yapay zeka serisi

OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)

OpenAI, "düşünme" becerisine sahip olduğunu öne sürdüğü yeni yapay zeka serisi o1'i dün (12 Eylül Perşembe) kullanıma sundu. 

Strawberry diye de bilinen yeni serinin o1-preview (ön izleme) ve o1-mini diye iki sürümü mevcut.

Model henüz sadece ChatGPT Plus ve Team kullanıcılarının yanı sıra 5. seviye API katmanına hak kazanan geliştiricilerin erişimine peyderpey açılıyor.

ChatGPT Enterprise ve Edu üyelerinin de gelecek haftadan itibaren araca erişebileceğini belirten şirket, ileride o1-miniyi bütün kullanıcılara ücretsiz sunmayı planlıyor. Fakat bunun için henüz bir tarih verilmedi.

Daha önceki modellerine 2,3,4 gibi isimler veren OpenAI, son serinin yepyeni becerilere sahip olması nedeniyle "sayacı sıfırladıklarını" ve bu nedenle o1 adını seçtiklerini belirtiyor.

Tabii bütün bunların bir bedeli var. Kullanımı mayısta çıkan öncülü GPT-4o'dan üç kat daha masraflı olan o1-preview'un geliştiricilere maliyeti 1 milyon girdi jetonu (token) başına 15 dolar, 1 milyon çıktı jetonu başına da 60 dolar.

Veri birimlerini ifade eden jetonlar, yapay zeka araçlarının büyük verileri parçalara ayırıp dili işlemesini sağlıyor. 1 milyon jeton yaklaşık 750 bin kelimeye denk geliyor. 

OpenAI, o1-mini versiyonun yüzde 80 daha ucuz olduğunu belirtiyor fakat bu sürüm diğeri kadar geniş bir bilgi yelpazesine sahip değil. 

Peki şirketin ön izleme veya bir ön sürüm olduğunu belirttiği o1, öncüllerinden farklı olarak neyi yapabiliyor, neyi yapamıyor ve insanlığın kendi bilişsel seviyesini geçen yapay zeka inşa etme çabasında nasıl bir adıma işaret ediyor?

1) Gerçekten düşünebiliyor mu?

Teknoloji sektöründeki en temel tartışmalardan biri, yapay zeka araçlarının becerilerini "düşünme" veya "muhakeme" gibi ifadelerle tanımlama etrafında dönüyor. 

Geniş dil modellerinin, devasa büyüklükte bilgi kümeleriyle eğitildiği ve sorgulara verdikleri cevaplarda bu veriler üzerinden olasılık temelli tahmin yürüttükleri göz önüne alınırsa, bazı uzmanların "düşünme" ifadesine itirazlarında haklılık payı var. 

Öte yandan bu araçlar insan beyni gibi akıl yürütme becerisine gittikçe daha fazla yaklaşıyor. 

OpenAI, o1 serisinin sorulara cevap vermeden önce daha uzun süre düşündüğünü ve vereceği yanıtların doğruluğunu kontrol ettiğini ifade ediyor.

Sisteme girilen soru karşısında "Düşünüyorum" gibi yanıtlar vermesi, gerçekten o sırada düşündüğü izlenimi yaratsa da o1'in insanlar gibi akıl yürüttüğünü söylemek mümkün değil. 

OpenAI'ın araştırma ekibinin lideri Jerry Tworek, yapay zeka modelinin düşünme biçimini insanlarınkiyle bir tutmadıklarını söylüyor. 

Arayüz ise yeni modelin problemleri çözerken daha fazla zaman harcadığını ve daha derine indiğini gösterme amacıyla bu şekilde tasarlanmış.

o1'i önceki OpenAI uygulamalarından ayıran temel özelliğiyse eğitilme biçiminde yatıyor. 

Eğitim bilimci ve öğretmenlerin aşina olabileceği pekiştirmeli öğrenme denen bu yöntem, doğru yanıtlar karşısında ödül, yanlış cevaplar karşısında da ceza verilmesi ilkesine dayanıyor.

Bu sayede deneme yanılmayla ilerleyen yapay zeka aracının, doğru yanıtlara ulaşma becerisi gelişiyor. Sorguları işlerken, insanların sorunları adım adım inceleyerek çözmesine benzer bir "düşünce zinciri" kullanıyor.

OpenAI, aracı "düşünmeye" iten bu yöntemin, doğruluğunu artırdığını ifade ediyor. 

2) Hangi alanlarda kullanılacak?

Karmaşık muhakeme görevlerinde kayda değer bir ilerlemeye ve yeni bir yapay zeka yeteneği seviyesine işaret ediyor. Bu nedenle sayacı tekrar 1'e sıfırlıyor ve bu seriye OpenAI o1 adını veriyoruz.

OpenAI'ın bu ifadelerle tanıttığı o1'in, dil becerilerinden ziyade bilimsel çalışmalar, veri işleme ve kodlamada daha iyi bir performans sergilemesi bekleniyor. Ayrıca o1-mini, daha küçük bir sürüm olmasına karşın özellikle kod üretmesi amacıyla geliştirildi. 

Yeni model kodlama ve matematikte sonuca ulaşma sürecini detaylandırdığı için bu alanlarda öğretmenlik yapma becerisinin önceki versiyonlardan daha iyi olması bekleniyor. 

Şirketin baş araştırma görevlisi Bob McGrew, yeni modelin ileri seviye matematik sorularında kendisinden daha iyi olduğunu belirterek kendisinin üniversitede matematik okuduğunu ekliyor.

OpenAI yeni modelin ayrıca bilim insanlarının hücre dizileme çalışmalarına ve fizikçilerin karmaşık matematiksel formüller üretmesine katkı sağlayacağını ifade ediyor. 

Ayrıca yapılan testlerde fizik, kimya ve biyolojinin bazı alanlarında doktora öğrencileriyle yarıştığı kaydedildi.

Şirketin baş bilim insanı Dr. Jakub Pachocki ve OpenAI teknik çalışanı Szymon Sido, New York Times'a yaptıkları sunumda, sohbet botunun çengel bulmacadan çok daha karmaşık akrostiş bulmacasını çözdüğü görüldü.

Yapay zeka aracı aynı zamanda doktora düzeyinde bir kimya sorusunu yanıtladı ve bir hastanın semptomları ve geçmişi hakkında ayrıntılı bir rapora dayanarak hastalığı teşhis etti.

3) GPT-4o'dan daha mı iyi?

Daha önceki modeller internetteki bilgilerle eğitildiği ve internette epey yanlış bilgi olduğu için hata yapma ihtimalleri artıyor. o1'in eğitilme biçimiyse bu hataları çok daha düşük seviyeye indirmesini sağlıyor. 

Yeni modelin; ses, görüntü ve yazıyla iletişim kuran GPT-4o'dan çok daha iyi performans gösterdiği alanlar olsa da bazı konularda gerisinde kalıyor. 

İki aracı da lise seviyesindeki Uluslararası Matematik Olimpiyatı'na sokan OpenAI, o1'in soruların yüzde 83'ünü, GPT-4o'nun ise sadece yüzde 13'ünü doğru çözdüğünü ifade ediyor. 

Thomson Reuters'tan yeni modeli test eden Pablo Arredondo, TechCrunch'a yaptığı açıklamada yasal belgeleri analiz etme ve hukuk fakültesine giriş sınavında da daha başarılı olduğunu söylüyor.

Strawberry takma adına sahip o1'in GPT-4o'yu geride bıraktığı bir diğer alan ise "strawberry" (çilek) kelimesinde kaç tane "r" harfi olduğunu bulmak.

Bu soruya "iki" yanıtını veren ChatGPT'nin önceki sürümleri internette alay konusu olmuştu. 

İlk başta çok zor bir görev gibi görünmese de yapay zeka araçları kelimeleri harf harf değil, jetonlar şeklinde işlediği için bu tip basit işlerde zorlanabiliyorlar. 

Ancak o1, daha detaylı düşünmesi ve kendisini kontrol etmesinden dolayı bu soruya doğru yanıtı vermeyi başardı. 

Öte yandan yeni model, internette arama yapma, metin ve görsel işleme gibi özelliklere henüz sahip değil. Ayrıca gerçek dünya hakkında GPT-4o kadar bilgisi de yok. 

Pennsylvania Üniversitesi Wharton İşletme Okulu'nda yapay zeka üzerine çalışan Ethan Mollick "Açıkçası o1-preview her şeyde daha iyi değil. Örneğin GPT-4o'dan daha iyi bir yazar değil" diyerek ekliyor: 

Ancak planlama gerektiren görevlerde ciddi değişiklikler sözkonusu.

OpenAI, yeni modelinde halüsinasyon sorununu da çözmeyi henüz başaramadı. Yapay zeka sohbet botlarının bazı bilgileri "uydurmasını" ifade eden halüsinasyon, bu araçların temel sorunu olmaya devam ediyor.

Modeli test eden Mollick, zorlu bir bulmacayı çözdüğünü ancak ipuçlarından birini uydurduğunu söylüyor. 

Yine de Tworek, "Bu modelin daha az halüsinasyon gördüğünü fark ettik" diyerek ekliyor: 

Ancak sorun hâlâ devam ediyor. Halüsinasyonları çözdüğümüzü söyleyemeyiz.

Son modelin bir diğer eksikliği de sorgulara yavaş cevap vermesi. Diğer sürümler neredeyse anında yanıtı sunarken, muhtemelen düşünme süresinden dolayı o1'in cevap vermesi çok daha uzun zaman alıyor.

Örneğin Mollick, bulmacayı çözmesinin 108 saniye sürdüğünü ifade ediyor.

OpenAI modelin ön izleme versiyonu olduğunu belirtirken, uzmanlar o1'in sonraki versiyonlarının hızlanmasını umuyor. 

4) İnsanlığa tehdit oluşturabilir mi?

Bazı yapay zeka araçları eğitimleri sırasında farklı kelimelerin beraber kullanılma sıklıklarını analiz ederek sözcüklerin birbirine yakınlığını tahmin ediyor. Örneğin "kedi" ve "köpek" kelimeleri birlikte daha sık kullanıldığı için yakın anlamlara sahip olmaları gerektiği sonucuna varıyor.

Bu modellerin "yapay zeka" ve "tehdit" ifadeleri arasında da böyle bir ilişki kurmuş olması muhtemel. 

Her yeni modelin piyasa sürülmesiyle akla gelen ilk sorulardan biri insanlığa varoluşsal bir tehdit yaratıp yaratmayacağı.

Sektörün önde gelen bazı isimleri bu tehlikeye karşı uyarırken bazı uzmanlar yapay zeka araçlarının nasıl kullanıldığının daha önemli olduğunu vurguluyor.

OpenAI'ın son sürümüyle bu araçların insan gibi düşünme becerisine bir adım daha yaklaşması da endişeleri artırabilir.

Ancak bu yazıdan da anlaşılabileceği üzere, o1'in becerileri henüz korkutucu bir düzeyin yakınından bile geçmiyor. 

Ars Technica'nın ifade ettiği gibi bir bulmacadaki 8 ipucunu çözmesi 108 saniye süren ve bir cevapta halüsinasyon gören bir yapay zeka modelinin potansiyel tehlike olduğunu söylemek abartıya kaçar. 

Öte yandan OpenAI'ın yanı sıra Meta ve Google gibi şirketlerin de çabaları ve son yıllardaki hızlı gelişmeler göz önüne alınırsa, insan seviyesine ulaşan yapay zeka araçları çok uzak olmayabilir.

Independent Türkçe, TechCrunch, Verge, Ars Technica, New York Times, OpenAI