Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Yapay zekanın "halüsinasyonları" geliştiricilerin deneyimini aşıyor

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor
TT

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Yapay zeka…. Ne kadar çok ‘geliştirilirse sorunları’ da o kadar artıyor

Üretken yapay zeka, kendisini güçlü kılan aynı yaratıcı yeteneklere dayanan yeni bir yazılım başarısızlıkları çağının perdesini aralıyor.

Axios web sitesine göre, her yeni teknoloji beraberinde hataları da getiriyor ancak yapay zeka hataları özellikle çetrefilli ve sinir bozucu olacak çünkü alıştığımızdan tamamen farklı çalışacaklar.

AT&T'nin hücresel ağı ve Google'ın Gemini yapay zeka sohbet robotu geçen hafta canlı yayına geçti.

Perşembe günü saat 03:30 sularında Doğu Yakası'nda AT&T hizmet kesintileri yaşandığına dair haberler geldi ve müşteriler Reddit ve X'te şikayette bulunarak sorunlarını hizmetlerin ne zaman kesildiğini tespit eden bir site olan Downdetector'a kaydettiler.

Etkinin yaygın olduğu görülüyor ve AT&T'nin bir ‘yazılım yapılandırma hatası’ nedeniyle çökmesi, binlerce müşteriyi sabah işe gidip gelirken kablosuz hizmetten yoksun bıraktı.

ABD’deki bazı kullanıcılar da hizmet kesintisi nedeniyle 911'i arayamadı. Sabah 9 itibariyle Downdetector, ABD genelinde 72 binden fazla AT&T kesintisi olduğunu gösteriyordu.

Teknoloji uzmanlarının bu sorunla nasıl başa çıkacaklarını bildikleri ağ kesintileri tanıdık olsa da, Google'ın hatası tamamen farklıydı, çünkü Gemini görüntülerinin yaratıcısı tarihi olmayan çeşitli görüntüler de yarattı. Örneğin, Nazi askerlerini fotoğraflaması istendiğinde, siyah insanların illüstrasyonlarını dahil etti. Askeri üniforma giyiyorlardı ve Papa'yı çizmesi istendiğinde, papalık cübbesi giyen bir kadın görüntüsü ortaya çıktı.

Bu AT&T'ninkinden daha karmaşık bir hataydı. Google, sorunu çözene kadar yapay zeka kullanarak oluşturulan görüntülerin üretimini geçici olarak durdurdu.

Axios'a göre Google, özellikle yapay zekaya göre tüm teröristlerin koyu tenli göründüğü insan görüntüleri dünyasında, her yapay zeka şirketinin yıllar süren utanç verici hatalardan sonra uygulamayı öğrendiklerine çok benzer önlemler alıyordu.

Site, AT&T ve Google olaylarında, insanların bilgisayarlardan yapmalarını istedikleri şeyler nedeniyle sistemlerin başarısız olduğuna dikkati çekti. AT&T'nin kablosuz hizmeti, sistemin yanıt vermemesine neden olan bir hata ya da tutarsızlık içeren yeni bir talimatı takip etmeye çalıştığında çöktü. Bilgisayarların icadından bu yana çoğu bilgisayar arızası bu şekilde meydana gelmiştir.

Ancak Axios, çoğu yapay zeka sisteminin komutlar ve talimatlarla çalışmadığına, bunun yerine çıktıları oluşturmak için olasılıklar kullandığına da dikkati çekti.

Gemini ile müdahale edildi ancak uzmanlar istedikleri sonuçları alamadı.

Üretken yapay zeka "yaratıcılıktan" alıkonulamaz

Site, İkizler’in tarihsel araştırma ile yaratıcılık arasındaki fark hakkında net bir şekilde ‘düşünemediğini’ açıkladı ve "En akıllı sistem ya da makul bir şekilde bilgilendirilmiş herhangi bir insan, Roma'daki Katolik Kilisesi'nin hiçbir zaman erkek olmayan bir papaya sahip olmadığını bilirdi" dedi.

Siteye göre, geleneksel programlar bir sonraki talimatları yürütmek için kod tabanlarına bakarken; Üretken YZ programları daha sonra insanların kendilerine verdiği talimatlara dayanarak bir dizideki bir sonraki kelimeyi veya pikseli ‘tahmin eder.’

Yapay zekaya ince ayar yaparak çıktılarını az ya da çok rastgele hale getirebilirsiniz. Ancak yaratmasını engelleyemezsiniz, aksi takdirde hiçbir şey yapmayacaktır.

Sonuç olarak, yapay zeka modelleri tarafından yapılan seçimler genellikle belirsizdir ve siteye göre yaratıcıları bile nasıl çalıştıklarını tam olarak anlamamaktadır, bu nedenle geliştiriciler örneğin görüntü sonuçlarını çeşitlendirmek veya siyasi propaganda ve nefret söylemini sınırlamak için ‘korkuluklar’ eklemeye çalıştıklarında, müdahaleleri ters etki yaratabilecek sonuçlara yol açıyor. Ancak müdahale etmemek de yanlı ve rahatsız edici sonuçlara yol açmaya devam edecek.

Yapay zeka ne kadar çok ‘geliştirilirse, ‘halüsinasyonları’ da o kadar artacak.

Site, gerçekliği doğru bir şekilde temsil etmek ve bilişsel araçlar olarak hizmet etmek için üretken yapay zeka sistemlerini kullanmaya çalıştıkça, sektörün ‘halüsinasyonlar’ ve tarihsel hatalar etrafında sınırlar belirlemeye çalışmasının daha acil hale geldiğine dikkati çekti.

Zaman içinde ve bu uzmanlık alanını öğrendikçe, YZ programcıları modellerini daha gerçekçi ve daha az önyargılı olacak şekilde başarılı bir şekilde evcilleştirebilir ve ince ayar yapabilir. Ancak Axios'a göre, üretken YZ'yi bilişsel çalışmalar için birincil arayüz olarak kullanmak, kafamızı karıştırmaya devam edecek çok kötü bir fikre dönüşebilir.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe