Yapay zekanın fikir babası “pişman”: İnsan ırkını 10 yıl içinde yok edebilir

Bir yapay zeka sergisinde sergilenen insan beyninin bir kopyası (DPA)
Bir yapay zeka sergisinde sergilenen insan beyninin bir kopyası (DPA)
TT

Yapay zekanın fikir babası “pişman”: İnsan ırkını 10 yıl içinde yok edebilir

Bir yapay zeka sergisinde sergilenen insan beyninin bir kopyası (DPA)
Bir yapay zeka sergisinde sergilenen insan beyninin bir kopyası (DPA)

Yapay zekanın (AI/YZ) fikir babası Profesör Geoffrey Hinton, YZ'nin önümüzdeki on yıl içinde insan ırkını yok edebileceği uyarısında bulundu. İngiltere merkezli The Telegraph gazetesine göre Hinton, YZ teknolojisinin yaratılmasındaki rolünden pişmanlık duyduğunu itiraf etti.

Makinelerin hızlı gelişimini ‘sanayi devrimine’ benzeten İngiliz-Kanadalı bilgisayar bilimcisi olan Profesör Hinton (77), ancak bu kez ‘kontrolü ele geçirebileceklerine’ karşı uyardı.

Bu yıl Nobel Fizik Ödülü'nü kazanan Profesör Hinton, hükümetlerin yapay zeka şirketlerine yönelik daha sıkı düzenlemeler yapması çağrısında bulundu.

Hinton daha önce YZ’nin otuz yıl içinde insanlığın çöküşüne yol açma ihtimalinin yüzde 10 olduğunu öngörmüştü.

BBC Radio 4'te yayınlanan Today programında kendisine analizini değiştiren bir şey olup olmadığı sorulduğunda Profesör Hinton, “Pek sayılmaz. Sanırım 10 ila 20 yıl önce kendimizden daha zeki şeylerle uğraşmak zorunda kalmıyorduk” ifadelerini kullandı.

Profesör Hinton, sözlerini şöyle sürdürdü:

“Daha zeki bir şeyin daha az zeki bir şey tarafından kontrol edildiğine dair kaç örnek biliyorsunuz? Çok az örnek var.”

ıo9p0
YZ’nin fikir babası Profesör Geoffrey Hinton (Reuters)

Profesör Hinton, 1980'lerde modern yapay zekanın temelini oluşturan, verilerdeki özellikleri bağımsız olarak bulabilen ve görüntülerdeki belirli öğeleri tanımlayabilen bir yöntem icat etti.

Teknolojinin beklediğinden ‘çok daha hızlı’ geliştiğini vurgulayan Profesör Hinton, insanları 3 yaşındaki çocuklara, yapay zekayı ise yetişkinlere dönüştürebileceğini söyledi.

Profesör Hinton, şunları söyledi:

“Bence bu Sanayi Devrimi’ne benziyor. Sanayi Devrimi'nde insan gücü daha az önemli hale geldi, çünkü makineler daha güçlüydü. Eğer bir hendek kazmak istiyorsanız, onu bir makine ile kazarsınız. Şu anda sahip olduğumuz şey insan zekasının yerini alan bir şey. Sıradan insan zekası artık ön planda olmayacak, makineler ön planda olacak.”

Dickensvari değişim

Profesör Hinton, Charles Dickens’ın ifade ettiği üzere tıpkı Sanayi Devrimi'nin yaptığı gibi, yapay zekanın da sıradan insanların hayatlarını önemli ölçüde değiştireceğini öngördü.

Gelecekte teknoloji ile yaşamın ne getireceğinin daha çok siyasi sistemlerimizin bununla ne yapacağına bağlı olacağını söyleyen Profesör Hinton, “Yapay zekanın toplum için iyi olması gereken üretkenlikte büyük artışlara yol açacak olmasına rağmen, tüm faydaların zenginlere gitmesi ve birçok insanın işini kaybedip daha da fakirleşmesi durumunda toplum için çok kötü olabilecek olması beni endişelendiriyor” ifadelerini kullandı.

Profesör Hinton, şöyle devam etti:

“Bu şeyler bizden daha akıllı. Yani Sanayi Devrimi'nde makinelerin sırf daha güçlü oldukları için insanların yerini alma ihtimali yoktu. Kontrol hala bizdeydi çünkü zeka bizdeydi. Şimdi ise bu şeylerin kontrolü ele geçirmesi gibi bir tehdit var.”

Hükümetlerin rolü

Görünmez bir elin bizi güvende tutmayacağını düşünen Profesör Hinton, bu işi büyük şirketlerin kâr güdülerine bırakmanın güvenli bir şekilde geliştiklerinden emin olmak için yeterli olmayacağını vurguladı. Profesör Hinton, sadece hükümetler tarafından alınacak tedbirlerin bu büyük şirketleri güvenlik konusunda daha fazla araştırma yapmaya zorlayabileceğinin altını çizdi.

ghyjuk
Yapay zeka insan ırkını sonunu getirmekle mi tehdit ediyor? (Reuters)

Profesör Hinton, hükümetlerin büyük şirketleri güvenlik konusunda çok fazla araştırma yapmaya zorlaması gerektiğine inanıyor.

Pişmanlık

Bu teknolojiyi dünyaya tanıtmakla ilgili bazı pişmanlıkları olduğunu söyleyen Profesör Hinton, iki tür pişmanlıktan söz etti. Bunlardan ilkinin yapmamanız gerektiğini bildiğiniz bir şeyi yaptığınız için kendinizi suçlu hissettiğiniz, aynı koşullar altında tekrar yapacağınız, ama sonunda pek de iyi sonuçlanmayabilecek türden bir pişmanlık olduğunu belirten Profesör Hinton, ikincisinin ise aynı koşullar altında yine aynı şeyi yapıp genel sonucun bizden daha akıllı sistemlerin önünde sonunda yönetimi ele geçirmesi olması endişesiyle duyduğu pişmanlık olduğunu ifade etti



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe