Yapay zeka, Olimpiyatlar vesilesiyle Fransa'yı gözetleyecek

Salı günü Ulusal Meclis'e gelecek düzenleme hak örgütlerinin tepkisini çekiyor

Fransa, 2024'te Yaz Olimpiyatları'nın yanı sıra Paralimpik Oyunları ve Rugby Dünya Kupası'na da ev sahipliği yapacak (AFP)
Fransa, 2024'te Yaz Olimpiyatları'nın yanı sıra Paralimpik Oyunları ve Rugby Dünya Kupası'na da ev sahipliği yapacak (AFP)
TT

Yapay zeka, Olimpiyatlar vesilesiyle Fransa'yı gözetleyecek

Fransa, 2024'te Yaz Olimpiyatları'nın yanı sıra Paralimpik Oyunları ve Rugby Dünya Kupası'na da ev sahipliği yapacak (AFP)
Fransa, 2024'te Yaz Olimpiyatları'nın yanı sıra Paralimpik Oyunları ve Rugby Dünya Kupası'na da ev sahipliği yapacak (AFP)

Fransa Parlamentosu, Paris'te düzenlenecek 2024 Olimpiyatları öncesinde tartışmalı bir tasarıyı yasalaştırmaya hazırlanıyor.
Tasarının tartışılan 7. maddesi, şehre kurulacak yapay zeka temelli gözetleme sistemlerinin "normal olmayan davranışları" tespit etmesine izin veriyor. İnsan hakkı örgütleri ve Fransa solu düzenlemeye karşı çıkıyor.
Salı günü parlamentoda görüşülecek tasarıda, pazarları mağazaların açık kalması, Fransa devletinin Olimpiyatlar için akredite olacak kişileri soruşturabilmesi ve Paris'in kuzeyinde bir sağlık merkezi kurulması gibi maddeler bulunuyor.
Tasarının 7. maddesinde yer alan olimpiyat oyunlarının güvenliği için yapay zeka temelli gözetleme sistemlerinin kurulması önerisi ise tartışmaların odağında yer alıyor. İnsan hakkı savunucuları bu tip bir teknolojinin kullanımının tehlikeli bir emsal oluşturacağını savunuyor.
İktidar partisinin yanı sıra Cumhuriyetçiler ve aşırı sağ Ulusal Birlik tarafından da desteklenen 7. maddeye, sol partilerin oluşturduğu Yeni Ekolojik ve Sosyal Halk Birliği (NUPES) ittifakı karşı çıkıyor.

Yeni düzenleme ne anlama geliyor?
Düzenleme, yeni teknolojinin deneme amaçlı olarak tüm spor, eğlence ve kültür etkinliklerinde kullanılmasını öngörüyor.
Dijital yasalar üzerine uzmanlaşan avukat Arnaud Touati, yeni teknolojiyi "Algoritmik gözetleme, kameralar tarafından elde edilen görüntülerin eş zamanlı olarak bir yazılım tarafından analiz edildiği yeni bir teknoloji. Yazılımda kullanan ve makine öğrenmesi teknolojisine dayanan algoritmalar, yapay zeka temelli gözetlemenin zamanla gelişmesine olanak tanıyor" ifadeleriyle açıkladı.
Toutati, "Yapay zeka temelli gözetleme sistemi şu anda Çin tarafından Uygur azınlığa karşı ırkçı amaçlarla kullanılıyor. Etnik azınlıklar hakkında algoritmaya yeterince veri sağlanmadığı için, yazılımda belirgin oranda ayrımcı ve ırkçı önyargı görülüyor. Bir MIT araştırmasına göre, yüz tanıma teknolojisi beyaz erkekler için yüzde 1 hata payına sahipken, bu oran siyah kadınlarda yüzde 34'e kadar çıkıyor" diye konuştu.

Taraflar ne diyor?
Düzenlemeyi destekleyenler, yeni teknolojinin insan hatalarını azaltacağını ve şüpheli durumları daha çabuk tespit etmeyi mümkün kılacağını belirtiyor.
Fransa hükümeti de yüz tanıma teknolojisinin olmamasının ve veri korumasına ilişkin yasal sınırların, ayrımcılığı engelleyebileceği fikrini savunuyor.
Uluslararası Af Örgütü ise kararın özel hayatın gizliliği, toplantı ve gösteri hakkı ve ifade özgürlüğüne açık bir saldırı olduğu görüşünde.
Ne Fransa'nın ne de Avrupa'nın yeni teknoloji için gerekli yasal zemine sahip olmadığını belirten Uluslararası Af Örgütü'nden Katia Roux, "Bu yasayı geçiren Fransa, Avrupa'da gözetlemenin bayraktarlığını yapacak ve tehlikeli bir emsal ortaya koyacak. Bu yasa, yeni teknolojiyi kendi halklarına karşı kullanabilecek bazı ülkelere endişe verici sinyaller gönderiyor" diye konuştu.
2018 Dünya Kupası sırasında Rusya'da denenen ses tanıma teknolojisinin, turnuvanın ardından muhalefete karşı kullanıldığını hatırlatan Roux, "Bu istisnai dönemin bir norm haline gelmesinden korkuyoruz. Video gözetlemesi er ya da geç biyometrik gözetleme ve ses gözetlemesine evrilecek. Yüz tanıma teknolojisi ise sadece aktif hale getirilmeyi bekleyen bir özellik" dedi.
31 Aralık 2024'e kadar yürürlükte kalması öngörülen düzenlemeyle birlikte, yapay zeka temelli gözetleme sistemi Olimpiyat Oyunları'nın yanı sıra yine Fransa'da düzenlenecek Paralimpik Oyunları ve Rugby Dünya Kupası'nda da kullanılabilecek.
Independent Türkçe, France 24, Politico, Le Monde



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe