Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
TT

Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim

ABD merkezli yapay zekâ araştırma şirketi OpenAI tarafından bundan yaklaşık bir ay önce, ChatGPT 4 uygulamasının piyasaya çıkarılmasından önce şirketin uygulamayı değerlendirmeleri için tuttuğu uzmanlar, uygulamanın kimyasal silah üretmeye yardımcı olabileceği konusunda uyarıda bulundular. Bugün aynı uyarı, sohbet robotlarının ‘terör örgütlerine üye toplamak amacıyla kullanılabileceğine dikkati çeken terör uzmanları tarafından da yapılıyor.

Uzmanlar, yapay zeka destekli sohbet robotlarının ‘savunmasız ya da muhalif kişileri, terör saldırıları gerçekleştirmeye ikna etmek için bir araç olarak hizmet edebileceği’ konusundaki endişelerini dile getirdiler. Şarku’l Avsat’ın İngiliz gazetesi The Guardian’dan aktardığı habere göre İngiltere’de yaşayan 19 yaşındaki Matthew King’in geçtiğimiz cuma günü ‘internette radikalizme özendiren materyaller gördükten sonra terör saldırısı planladığı’ suçlamasıyla ömür boyu hapis cezasına çarptırıldığı dava, bu endişeleri artırdı.

Uzmanlar, bu genç adamın yapay zeka destekli sohbet robotları tarafından radikalleştirilme hızının, savunmasız bireylerin yatak odalarından bu araçlarla teröriste dönüştürüldüğünün giderek daha net hale geldiğinin bir kanıtı olarak gördüler.

The Guardian gazetesi, Terörizm Mevzuatının Bağımsız Denetçisi Jonathan Hall QC, Jonathan Hall QC tarafından yapılan şu açıklamayı aktardı:

“İnsanların önlerinde sadece bir bilgisayarla bu dünyaya dalmaları beni endişelendiriyor. Onları bir şeyler yapmaya ikna eden bir dil kullanma konusunda becerikli sohbet robotlarını buluyorlar.”

Yapay zekanın mucitleri, yapay zekanın dünyanın çehresini daha iyiye doğru değiştirecek avantajlarından bahsederken Hall QC, yeni teknolojinin terör örgütlerine üye toplamak için kullanılabileceği endişesiyle ‘teknolojik ütopya’ zihniyetinden vazgeçmeleri gerektiğini düşünüyor.

Hall QC, sözlerini şöyle sürdürdü:

“Yapay zekanın ulusal güvenliğe yönelik tehdidi, her zamankinden daha belirgin ve teknoloji üreticilerinin yapay zekayı tasarlarken teröristlerin niyetlerini dikkate almaları gerekiyor.”

Yapay zekanın insanlığı yok etmekle tehdit edebileceği konusunda uyarıların ardından artan bu alanda gerekli düzenlemelerin yapılması çağrılarıyla birlikte İngiltere Başbakanı Rishi Sunak, önümüzdeki çarşamba günü ABD Başkanı Joe Biden ve ABD Kongresi’nin üst düzey üyeleriyle görüşmek üzere ABD'ye gittiğinde konuyu gündeme getirmesi bekleniyor.

Bu adım, İngiltere’nin Güvenlik Servisi (MI5), Alan Turing Enstitüsü ve Ulusal Veri Bilimi ve Yapay Zeka Kurumu ile yapay zekanın ortaya çıkardığı ulusal güvenlik sorunlarını ele alma çabalarıyla uyumlu.

Alan Turing Enstitüsü Savunma ve Güvenlik Programı dijital ahlak araştırmacısı olan Dr. Alexander Blanchard, “Güvenlik servisleriyle yapılan ortak çalışma, savunma ve güvenlik politika yapıcıları arasında neler olup bittiği, yapay zekanın nasıl kullanabileceği ve tehditlerin neler olduğunu anlama konusunda büyük bir istek olduğundan, İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını ciddiye aldığını gösteriyor” şeklinde konuştu.

Dr. Blanchard, şöyle devam etti:

“Gerçekten neler olup bittiğinin izlenmesi gerekiyor. Mevcut tehditlerin, uzun vadeli risklerin neler olduğunu ve yeni nesil teknolojinin ne gibi tehlikeler barındırdığını anlamak için birtakım çalışmalar yapılıyor.”

İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını fark etmesiyle birlikte Başbakan Sunak, geçtiğimiz hafta İngiltere'nin yapay zeka düzenlemeleriyle ilgili küresel bir merkez olmak istediğini ve ‘ekonomiye ve topluma muazzam faydalar’ sağlayabileceğini söyledi.

Dr. Blanchard ve Hall QC, asıl meselenin, insanların yapay zekayı nasıl kontrol edebileceği olduğunu ve böylece yapay zekanın faydalarının en üst düzeye çıkarılabileceğini ve zararlarından kaçınılabileceğini söylediler.

Suudi Arabistan’daki Kral Abdullah Bilim ve Teknoloji Üniversitesi'nde (KAUST) Yapay Zeka Girişimi Direktörü Juergen Schmidhuber, yapay zekanın getirdiği güvenlik sorunlarının bilinmesi ve bunlarla mücadele edilmesi için çalışılması zorunluluğuyla ilgili olarak “Yapay zekanın artıları eksilerinden çok daha ağır bastığından ‘yapay zekanın saf kötülük’ olduğu öne sürülebilir, fakat bu doğru değildir. Olumsuzluklar hakkında konuşmaktan kaçınmak önemli” dedi.

Bilim ve akademik çevrelerde ‘yapay zekanın öncülerinden biri’ olarak bilinen Schmidhuber, daha önce Şarku’l Avsat’a yaptığı açıklamalarda yapay zekanın tehlikeleri ve olumsuzlukları hakkında konuşmanın, her zaman olumlu şeylerden daha ağır basacak şekilde kamuoyunun dikkatini çektiğini, bu yüzden katil robotlarla ilgili Arnold Schwarzenegger filmlerinin yapay zekanın tıp dünyasındaki faydalarıyla ilgili belgesellerden daha popüler olduğunu vurguladı.

Mısır'daki Nil Ulusal Üniversitesi'nde yapay zeka alanında çalışmalar yapan araştırmacı Mustafa el-Attar, Şarku’l Avsat’a yaptığı değerlendirmede, “Sohbet robotlarının kendi kendine öğrenme yeteneklerinin dondurulması, tehlikelerini büyük ölçüde azaltabilir. Yapay zekanın suistimal edilmemesi için bu yapılmalı” dedi.

Attar, kendi kendine öğrenme özelliğinin kapatılmasının chatbotun programlanırken girilen kaynaklar dışında yeni kaynaklar kullanmayacağı anlamına geleceğini ve böylece zaman zaman bu kaynakları güncelleyebileceğini belirterek bu sayede sağladığı bilgiler üzerinde kontrol sahibi olabileceğine işaret etti.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe