Batı, yapay zekaya ilişkin ortak kurallar taslağı üzerinde çalışıyor

Avrupa Birliği, yapay zeka alanındaki ihlalleri sınırlamak için bütüncül ve bağlayıcı bir yasal çerçeve geliştirmeyi hedefliyor. (Arşiv-Reuters)
Avrupa Birliği, yapay zeka alanındaki ihlalleri sınırlamak için bütüncül ve bağlayıcı bir yasal çerçeve geliştirmeyi hedefliyor. (Arşiv-Reuters)
TT

Batı, yapay zekaya ilişkin ortak kurallar taslağı üzerinde çalışıyor

Avrupa Birliği, yapay zeka alanındaki ihlalleri sınırlamak için bütüncül ve bağlayıcı bir yasal çerçeve geliştirmeyi hedefliyor. (Arşiv-Reuters)
Avrupa Birliği, yapay zeka alanındaki ihlalleri sınırlamak için bütüncül ve bağlayıcı bir yasal çerçeve geliştirmeyi hedefliyor. (Arşiv-Reuters)

Avrupa Birliği (AB) ve ABD dün, büyük bir atılıma tanık olan yapay zeka sektörünün düzenlenmesinde kendi yaklaşımını dayatan Çin’in tehlikesine karşı bu alanda faaliyet gösteren şirketlerin gönüllülük esasına dayalı bir şekilde kullanımına sunulmak üzere yapay zekaya ilişkin ortak ‘davranış kuralları’ taslağı geliştireceklerini duyurdu.

Bu adım, siyasi yetkililer ve sektördeki girişimciler de dahil olmak üzere dünya çapında, ihlallerin yaşanmasına ilişkin büyük riskler taşıyan devrim niteliğindeki bir teknolojiye bir çerçeve çizilmesi gereksinimi konusunda fikir birliği olduğu görülüyor.

Şarku’l Avsat’ın edindiği bilgilere göre ABD Dışişleri Bakanı Antony Blinken, İsveç’in kuzeyinde katıldığı bir toplantının ardından yaptığı açıklamada bu teknolojiye ve ChatGPT sohbet botu gibi devrim niteliğindeki araçlarına dikkat çekerek Batılıların ‘acilen harekete geçme ihtiyacı’ hissettiğini söyledi.

Brüksel’de üst düzey yetkililerle düzenlediği ortak basın toplantısında Blinken, davranış kurallarının ‘aynı fikirde olan tüm ülkelere açık olacağını’ kaydetti.

Diğer yandan ABD’li internet devleriyle sürekli çatışmasıyla bilinen Avrupa Komisyonu Başkan Yardımcısı Margrethe Vestager, ilk taslağın ‘haftalar içinde’ sunulacağı bilgisini verdi.

Danimarkalı komisyon üyesi Blinken ile düzenlediği ortak basın toplantısında, “Vatandaşların demokrasilerin ilerlediğini görmelerinin gerçekten önemli olduğunu düşünüyoruz” dedi.

Vestager hedefin ‘mümkün olan en yakın zamanda’ nihai bir öneriye ulaşmak olduğunu söyledi. Bu bağlamda ‘Kanada, İngiltere, Japonya ve Hindistan’daki dostlara’ atıfta bulunarak bunu ‘mümkün olan en geniş çevrede’ yapmak istediklerini kaydetti.

ABD’liler ve Avrupalılar, Batı saflarını birleştirmezse Çin’in bu alanda kendi standartlarını dayatacağından endişe ediyorlar.

AB, yapay zeka ihlallerini sınırlamak için bütüncül ve bağlayıcı bir yasal çerçeve geliştiren ilk ülke olmayı hedefliyor. Ancak bu çerçeve, tahminlere göre en erken 2025 yılı sonunda yürürlüğe girebilir. Vestager’e göre ABD ile geliştirilen ortak davranış kuralları gönüllülük esasına dayalı olacak.

Microsoft, Meta ve Google

Geçtiğimiz aylarda dünya, performansını iyileştirmek için bir şeyleri çok hızlı öğrenebilme yetisine sahip araçları ve yazılımları ile halen geliştirilme aşamasında olan bu teknolojinin yapabileceklerini hayretler içerisinde izledi.

Bu sektörü, ChatGPT programını geliştiren OpenAI’nin ana hissedarı Microsoft, Meta ve Google gibi dev Amerikan internet şirketleri kontrol ediyor.

Özellikle söz konusu teknoloji alanında rekabet edebilen ve hatta çok hızlı bir şekilde öne çıkabilen açık kaynak platformlar olduğu göz önüne alınırsa, bu sektörün hızla geliştiği görülüyor.

Amazon, Apple, Meta, Google ve Twitter’ı içeren bir lobi grubu olan Bilgisayar ve İletişim Endüstrisi Derneği (CCIA), ‘özellikle AB’nin önümüzdeki yıllarda pazarı düzenleyecek iddialı dijital düzenleme taslağını öne sürdürdüğü bir zamanda, büyüyen ve ileriye dönük transatlantik taahhüde’ övgüde bulundu.

Bağlayıcı çerçevenin beklendiği bir zamanda Brüksel, Google gibi dev internet şirketlerinin de desteğiyle gönüllü düzenlemeler öneriyor.

Aynı zamanda Çin, özellikle yapay zeka araçları üzerinde bir ‘güvenlik denetim’ programı gibi düzenleyici projeler geliştirdi.

ABD tarafına gelince; Washington’ın birçok toplantı yapmasına rağmen masada halihazırda bir proje yok.

Yapay zeka konusu, İsveç'in kuzeyindeki Luleå’da ChatGPT yaratıcısı Sam Altman’ın katılımıyla düzenlenen AB-ABD Ticaret ve Teknoloji Konseyi toplantısında gündeme getirilen ana konulardan biriydi.

Bu konsey, 2021 yılında 27 ülke ile Washington arasında eski ABD Başkanı Donald Trump dönemindeki ticaret anlaşmazlıklarına son vermek için kurulmuştu.

Avrupalıların hâkim olduğu ender teknolojik alanlardan biri olan altıncı nesil ağ (G6) konusunda da iş birliği alanları üzerinde uzlaşmaya varıldı.

Kapanış bildirisinde şu ifadelere yer verildi:

“AB ve ABD, AI teknolojisinin büyük fırsatlar içerdiği, ancak aynı zamanda toplumlarımız için riskler oluşturduğu konusunda ortak bir görüşü paylaşıyor.”

Bu sırada, Danimarka Başbakanı Mette Frederiksen dün sabah Parlamento’da, bu teknolojinin devrim niteliğindeki yanını ve demokrasiye yönelik tehlikelerini göstermek amacıyla ilk bölümü tamamen ChatGPT tarafından yazılan bir konuşma yaptı.

Başbakan Danimarkalı parlamenterlere hitaben şunları söyledi:

“Gerek hükümetin çalışma programının ayrıntılarında gerekse noktalama işaretlerinde (...) her zaman isteneni vermese de ChatGPT’nin yapabilecekleri hem şaşkınlık hem de dehşet duygularını aynı anda uyandırıyor.”



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe