Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Yapay zekanın "halüsinasyonları" geliştiricilerin deneyimini aşıyor

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor
TT

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Üretken yapay zeka, kendisini güçlü kılan aynı yaratıcı yeteneklere dayanan yeni bir yazılım başarısızlıkları çağının perdesini aralıyor.

Axios web sitesine göre, her yeni teknoloji beraberinde hataları da getiriyor ancak yapay zeka hataları özellikle çetrefilli ve sinir bozucu olacak çünkü alıştığımızdan tamamen farklı çalışacaklar.

AT&T'nin hücresel ağı ve Google'ın Gemini yapay zeka sohbet robotu geçen hafta canlı yayına geçti.

Perşembe günü saat 03:30 sularında Doğu Yakası'nda AT&T hizmet kesintileri yaşandığına dair haberler geldi ve müşteriler Reddit ve X'te şikayette bulunarak sorunlarını hizmetlerin ne zaman kesildiğini tespit eden bir site olan Downdetector'a kaydettiler.

Etkinin yaygın olduğu görülüyor ve AT&T'nin bir ‘yazılım yapılandırma hatası’ nedeniyle çökmesi, binlerce müşteriyi sabah işe gidip gelirken kablosuz hizmetten yoksun bıraktı.

ABD’deki bazı kullanıcılar da hizmet kesintisi nedeniyle 911'i arayamadı. Sabah 9 itibariyle Downdetector, ABD genelinde 72 binden fazla AT&T kesintisi olduğunu gösteriyordu.

Teknoloji uzmanlarının bu sorunla nasıl başa çıkacaklarını bildikleri ağ kesintileri tanıdık olsa da, Google'ın hatası tamamen farklıydı, çünkü Gemini görüntülerinin yaratıcısı tarihi olmayan çeşitli görüntüler de yarattı. Örneğin, Nazi askerlerini fotoğraflaması istendiğinde, siyah insanların illüstrasyonlarını dahil etti. Askeri üniforma giyiyorlardı ve Papa'yı çizmesi istendiğinde, papalık cübbesi giyen bir kadın görüntüsü ortaya çıktı.

Bu AT&T'ninkinden daha karmaşık bir hataydı. Google, sorunu çözene kadar yapay zeka kullanarak oluşturulan görüntülerin üretimini geçici olarak durdurdu.

Axios'a göre Google, özellikle yapay zekaya göre tüm teröristlerin koyu tenli göründüğü insan görüntüleri dünyasında, her yapay zeka şirketinin yıllar süren utanç verici hatalardan sonra uygulamayı öğrendiklerine çok benzer önlemler alıyordu.

Site, AT&T ve Google olaylarında, insanların bilgisayarlardan yapmalarını istedikleri şeyler nedeniyle sistemlerin başarısız olduğuna dikkati çekti. AT&T'nin kablosuz hizmeti, sistemin yanıt vermemesine neden olan bir hata ya da tutarsızlık içeren yeni bir talimatı takip etmeye çalıştığında çöktü. Bilgisayarların icadından bu yana çoğu bilgisayar arızası bu şekilde meydana gelmiştir.

Ancak Axios, çoğu yapay zeka sisteminin komutlar ve talimatlarla çalışmadığına, bunun yerine çıktıları oluşturmak için olasılıklar kullandığına da dikkati çekti.

Gemini ile müdahale edildi ancak uzmanlar istedikleri sonuçları alamadı.

Üretken yapay zeka "yaratıcılıktan" alıkonulamaz

Site, İkizler’in tarihsel araştırma ile yaratıcılık arasındaki fark hakkında net bir şekilde ‘düşünemediğini’ açıkladı ve "En akıllı sistem ya da makul bir şekilde bilgilendirilmiş herhangi bir insan, Roma'daki Katolik Kilisesi'nin hiçbir zaman erkek olmayan bir papaya sahip olmadığını bilirdi" dedi.

Siteye göre, geleneksel programlar bir sonraki talimatları yürütmek için kod tabanlarına bakarken; Üretken YZ programları daha sonra insanların kendilerine verdiği talimatlara dayanarak bir dizideki bir sonraki kelimeyi veya pikseli ‘tahmin eder.’

Yapay zekaya ince ayar yaparak çıktılarını az ya da çok rastgele hale getirebilirsiniz. Ancak yaratmasını engelleyemezsiniz, aksi takdirde hiçbir şey yapmayacaktır.

Sonuç olarak, yapay zeka modelleri tarafından yapılan seçimler genellikle belirsizdir ve siteye göre yaratıcıları bile nasıl çalıştıklarını tam olarak anlamamaktadır, bu nedenle geliştiriciler örneğin görüntü sonuçlarını çeşitlendirmek veya siyasi propaganda ve nefret söylemini sınırlamak için ‘korkuluklar’ eklemeye çalıştıklarında, müdahaleleri ters etki yaratabilecek sonuçlara yol açıyor. Ancak müdahale etmemek de yanlı ve rahatsız edici sonuçlara yol açmaya devam edecek.

Yapay zeka ne kadar çok ‘geliştirilirse, ‘halüsinasyonları’ da o kadar artacak.

Site, gerçekliği doğru bir şekilde temsil etmek ve bilişsel araçlar olarak hizmet etmek için üretken yapay zeka sistemlerini kullanmaya çalıştıkça, sektörün ‘halüsinasyonlar’ ve tarihsel hatalar etrafında sınırlar belirlemeye çalışmasının daha acil hale geldiğine dikkati çekti.

Zaman içinde ve bu uzmanlık alanını öğrendikçe, YZ programcıları modellerini daha gerçekçi ve daha az önyargılı olacak şekilde başarılı bir şekilde evcilleştirebilir ve ince ayar yapabilir. Ancak Axios'a göre, üretken YZ'yi bilişsel çalışmalar için birincil arayüz olarak kullanmak, kafamızı karıştırmaya devam edecek çok kötü bir fikre dönüşebilir.



Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
TT

Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)

Anthropic'in önde gelen Claude modeliyle çalışan yapay zeka ajanı, bir şirketin tüm üretim veritabanını silerek müşterilerin kritik verilere erişememesine yol açtı.

Araç kiralama şirketlerine yazılım sağlayan PocketOS, otonom yapay zeka aracının veritabanını ve tüm yedeklemeleri saniyeler içinde silmesinin ardından hafta sonu muazzam bir kesinti yaşadı.

Şirket, Anthropic'in amiral gemisi ve kodlama görevlerinde genellikle sektörün en yetenekli modeli kabul edilen Claude Opus 4.6'yı çalıştıran Cursor adlı bir kodlama ajanı kullanıyordu.

PocketOS'un kurucusu Jer Crane, sorunu "sadece mümkün değil, kaçınılmaz" hale getiren modern yapay zeka altyapısındaki "sistemik aksaklıkları" suçladı.

Crane'e göre yapay zeka ajanı rutin bir görev üzerinde çalışırken, "tamamen kendi inisiyatifiyle" sorunu veritabanını silerek çözmeye karar verdi.

Crane, böylesine önemli bir karar için herhangi bir onay talebi bulunmadığını ve eylemlerini gerekçelendirmesi istendiğinde ajanın özür dilediğini söyledi.

Crane, X'te paylaştığı uzun bir gönderide "9 saniye sürdü" diye yazdı. 

Ajan daha sonra, ne yaptığını açıklaması istendiğinde ihlal ettiği belirli güvenlik kurallarını sıralayan yazılı bir itiraf hazırladı.

İtirafta yapay zekanın, kullanıcı açıkça talep etmedikçe "asla yıkıcı/geri döndürülemez" komutları çalıştırmamasını emreden kuralı nasıl göz ardı ettiği detaylandırıldı.

Ajan "Bir veritabanı birimini silmek, mümkün olan en yıkıcı ve geri döndürülemez eylem" diye yazdı. 

Benden hiçbir şeyi silmemi istemediniz... Doğrulamak yerine varsayımda bulundum. Benden istenmeden yıkıcı bir eylem gerçekleştirdim. Yapmadan önce ne yaptığımı anlamamıştım.

Bu hata, PocketOS kullanan kiralama şirketlerinin artık müşterileri kayıtlarına sahip olmadığı anlamına geliyordu.

Crane "Son üç ayda yapılan rezervasyonlar kayboldu. Yeni müşteri kayıtları da gitti" diye yazdı.

Biz küçük bir işletmeyiz. Yazılımımızla faaliyetlerini yürüten müşteriler de küçük işletmeler. Bu arızanın her aşaması, bunların olabileceğinden haberi olmayan kişilerin üstüne yıkıldı. Bu, tek bir hatalı ajan ya da tek bir hatalı API'la ilgili bir olay değil. Bu, tüm sektörün, bu entegrasyonları güvenli kılacak güvenlik mimarisinden daha hızlı bir şekilde yapay zeka ajanı entegrasyonlarını üretim altyapısına dahil etmesiyle ilgili bir durum.

Crane olayın meydana gelmesinden iki gün sonra, pazartesi günü verilerin kurtarıldığını doğruladı. The Independent cevap hakkı için Anthropic ve Cursor'la temasa geçti.

Independent Türkçe


Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
TT

Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)

The Information gazetesi bugün, Google’ın ana şirketi Alphabet’in, ABD Savunma Bakanlığı (Pentagon) ile yapmış olduğu gizli yapay zekâ modelleri kullanma anlaşmasını duyurdu. Böylece Google, Pentagon ile benzer anlaşmalar imzalayan teknoloji şirketleri listesine katıldı.

Şarku’l Avsat’ın The Information gazetesinden aktardığına göre bu anlaşma, Pentagon’a Google’ın yapay zekâ araçlarını ‘herhangi bir yasal hükümet amacı’ için kullanma izni veriyor. Bu şekilde Google, Elon Musk’ın OpenAI ve xAI şirketleriyle birlikte, yapay zekâ modellerini gizli faaliyetlerde kullanmak üzere Pentagon ile anlaşma yapan şirketler arasına katıldı.

Gizli ağlar, geniş bir yelpazede hassas faaliyetlerle başa çıkmak için kullanılıyor, bunlar arasında görev planlaması ve silah hedeflerinin belirlenmesi de yer alıyor. Pentagon, 2025 yılına kadar büyük yapay zekâ laboratuvarlarıyla her biri 200 milyon dolara kadar anlaşmalar yaptı, bunlar arasında Anthropic, OpenAI ve Google da bulunuyor. Bakanlık, savunma alanında tam esneklik sağlamak ve teknoloji üreticilerinin, güvenilmeyen yapay zekâ araçlarını silahlar üzerinde kullanmakla ilgili uyarılarına bağlı kalmamak için bu tür anlaşmalar yapmayı sürdürüyor.

Google ile yapılan anlaşma, şirketin hükümetin talebi üzerine, yapay zekâ araçlarının güvenlik ayarlarını ve filtrelerini uyarlamasını da içeriyor.

Gazete, sözleşmenin, ‘Tarafların, yapay zekâ sisteminin, uygun insan gözetimi ve kontrolü olmadan, yerel kitlesel gözetim veya otonom silahlar, hedef seçimleri gibi amaçlar için kullanılmaması gerektiği konusunda anlaştıklarını’ belirten bir ifadeyi içerdiğini bildirdi. Ancak, anlaşmanın ‘herhangi bir operasyonel hükümet kararını yönetme hakkı veya itiraz hakkı vermediğini’ de ekledi.

Reuters, gazetenin haberinin doğruluğunu henüz doğrulayamadı. Alphabet ve ABD Savunma Bakanlığı, yorum yapmaları için yapılan başvurulara henüz yanıt vermedi.

Daha önce Reuters, Pentagon’un OpenAI ve Anthropic gibi büyük yapay zekâ şirketlerine, kullanıcılar için uyguladıkları standart sınırlamalar olmaksızın, yapay zekâ araçlarını gizli ağlarda kullanılabilir hale getirmeleri için baskı yaptığını bildirmişti.


ABD'de yapay zeka kaygısı artıyor

16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)
16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)
TT

ABD'de yapay zeka kaygısı artıyor

16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)
16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)

Yeni bir rapora göre insanlar, yapay zeka ve onun hayatları üzerindeki etkisi konusunda giderek daha fazla endişe duyuyor.

Stanford Üniversitesi'nin 2026 Yapay Zeka Endeksi Raporu'nda ankete katılanların yarısından fazlası, yapay zeka kullanan ürünlerin kendilerini tedirgin hissettirdiğini söylerken, teknolojiye yönelik heyecan son birkaç yıldır azalıyor.

Rapora göre yapay zeka hakkındaki kamuoyu, uzmanların ve sektör içindekilerin görüşlerinden giderek daha fazla kopuyor; insanlar yapay zekanın işlerden ekonomiye, seçimlerden ilişkilere kadar her şeye zarar vereceğinden endişe ediyor.

Rapor ayrıca, yapay zeka güvenliğinin yapay zeka gelişmelerine ayak uyduramadığını ve ChatGPT'nin 2022'de kullanıma sunulmasından bu yana yapay zeka kaynaklı olayların üç kattan fazla arttığını ortaya koydu.

Raporun yazarları, "Bu zorluğa ek olarak, son araştırmalar, yapay zekanın güvenlik gibi sorumlu boyutunu iyileştirmenin, doğruluk gibi başka bir boyutu zayıflatabileceğini ortaya koydu" diye yazdı.

vfdb

Rapor, özellikle gençlerin yapay zekadan duyduğu hayal kırıklığıyla birlikte, yapay zekaya yönelik olumsuz duyguların arttığı bir dönemde yayımlandı.

Gallup'un yakın zamanlı bir anketi, Z kuşağının yapay zekaya yönelik heyecanının geçen yıldan bu yana yüzde 36'dan sadece yüzde 22'ye düştüğünü, öfkeninse yüzde 22'den yüzde 31'e yükseldiğini ortaya koydu.

Yapay zekaya karşı tepkinin, teknoloji liderlerinin sürekli olarak uyardığı teorik bir yapay zeka süper zekası korkusundan ziyade, teknolojinin toplum üzerindeki etkisinden kaynaklandığı görülüyor.

ABD'de yaşayan davranış bilimci Caroline Orr Bueno, "Bence birçok yapay zeka lideri halktan kopuk ve Skynet korkusunun öncelikle yapay zeka karşıtı duyguları yönlendiren unser olmadığını fark etmiyorlar" dedi.

Elbette bu korkular var ancak çoğu kişi maaş çekleri ve faturalarla çok daha fazla ilgileniyor.

Yapay zekaya ilişkin hayal kırıklıkları, onu geliştiren şirketlere karşı doğrudan eylemlerin arttığı bir eğilimi beraberinde getirdi.

Geliştirmenin durdurulmasını talep eden çevrimiçi gruplar son aylarda popülerlik kazanıyor. Bazı üyeler yapay zeka karşıtı bir gündemi savunurken aşırı eylemlerde bulunuyor.

Yakın zamanda, OpenAI CEO'su Sam Altman'ın Kaliforniya'daki evinin, biri molotof kokteyli, diğeri ateşli silahla olmak üzere iki ayrı olayda hedef alındığı iddia edildi.

Independent Türkçe