Rakipleri, Elon Musk'a meydan okuyor: "Starlink yörüngede güvenlik riski yaratıyor"

Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)
Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)
TT

Rakipleri, Elon Musk'a meydan okuyor: "Starlink yörüngede güvenlik riski yaratıyor"

Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)
Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)

Elon Musk'ın internet uydusu girişimi Starlink; rakiplerinden büyük eleştiri topluyor. Projenin uzayı kirletmekle kalmadığı, aynı zamanda yörüngede büyük güvenlik riski yarattığı öne sürülüyor.
Musk'ın SpaceX şirketinin başlattığı proje, dünyanın her köşesine süper hızlı internet ulaştırmayı hedefliyor. Şirket şu anda yaklaşık 12 bin uyduyu yörüngeye gönderme yetkisine sahip. 30 bin uydu daha yollayabilmek için de onay bekliyor.
Öte yandan Viasat, OneWeb Global, Hughes Network Systems ve Boeing gibi rakip şirketler, Starlink'e adeta meydan okuyor.
Bunlardan bir kısmı, Musk'ın uydularının kendi cihazlarının sinyallerini engellediğinden ve uydularını fiziksel açıdan tehlikeye attığından şikayet ediyor.
Projeyi eleştirenlerin ana argümanı, Musk'ın tıpkı Tesla'da olduğu gibi "önce piyasaya sürme, sonra geliştirme" prensibinin yörüngenin kirlenmesiyle sonuçlandığı.
OneWeb yetkililerinden Chris McLaughlin, "Uydularımızın her biri Ford Focus gibidir; test edilir ve çalışır" diye konuştu:
"Starlink uydularıysa Tesla gibi. Onları fırlatıyorlar ve sonra yükseltmeleri, düzeltmeleri, hatta tamamen değiştirmeleri gerekiyor."
Gerçekten de SpaceX, 2019'da ilk Starlink uydularının yaklaşık yüzde 5'inin başarısız olduğunu açıklamıştı. Bu uydular Dünya'ya düşmesi ve atmosferde yanarak yok olması için kaderine terk edilmişti.
Öte yandan, Kasım 2020'de Harvard-Smithsonian Astrofizik Merkezi'nden astrofizikçi Jonathan McDowell, Starlink'in başarısızlık oranının yaklaşık yüzde 3 olduğunu hesaplamıştı. McDowell, Starlink'in o zamandan beri uydularının tasarımını büyük ölçüde geliştirdiğini ve arıza oranının şu anda yüzde 1'in altında olduğunu söyledi.
McLaughlin ise Starlink'in çok fazla uydu çalıştıracağını ve düşük arıza oranının bile çarpışma potansiyeli açısından yörüngede büyük risk teşkil ettiğini ifade etti.
"Starlink, yörüngede bin 300'den fazla uzay aracı işletiyor ve projeye her ay yaklaşık 120 uydu daha ekleniyor. Starlink uyduları, 1950'lerden bu yana fırlatılan toplam uydu sayısını (9 bin) aşma yolunda ilerliyor."
Viasat'ın kurucusu ve yönetim kurulu başkanı Mark Dankberg, "Daha az uydunuz olmalı ve onları daha yetenekli kılmalısınız" diyor.
Dankberg, şirketinin yörüngede yaratacağı olası trafiğe dair daha önce de uyarılarda bulunmuştu. Ancak Musk, bu uyarılara Twitter hesabından şöyle cevap vermişti:
Starlink, Viasat'ın kazancı için tehlike oluşturuyor, mevzu daha çok bu gibi.
Starlink projesinin gerekli izinleri aldığı Federal İletişim Komisyonu'nda Musk'a meydan okuyan bir Boeing sözcüsü ise "rekabete uygun bir alan sağlamanın güvenli ve sürdürülebilir bir yörünge ortamı için çok önemli olduğunu" söylemişti.
Diğer yandan Wall Street Journal'ın aktardığına göre 2 Nisan'da bir Starlink uydusu, Oneweb'in işlettiği bir diğeriyle çarpışmanın eşiğine geldi.
OneWeb yetkililerinden McLaughlin, bu esnada Starlink mühendisleriyle iletişime geçtiklerini ama çarpışmayı önlemek için hiçbir şey yapılamayacağı yanıtını aldıklarını bildirdi. Bunun ardından Oneweb uydusu manevra yaparak çarpışmadan kaçındı.
AB uydularını yöneten Avrupa Uzay Ajansı (ESA) da benzer bir olayın 2019'un sonlarında meydana geldiğini aktardı.
Buna göre bir Starlink uydusunun AB'nin işlettiği bir uyduyla çarpışma rotasına girdiğini gören yetkililer,  Starlink'le yalnızca e-posta yoluyla iletişime geçebildi ve herhangi bir işlem yapılamayacağı cevabını aldı. Bunun sonucunda AB mühendisleri manevra yapmak zorunda kaldı.
SpaceX, iki olaya dair yorum taleplerine ise yanıt vermedi.
Texas Üniversitesi Havacılık ve Uzay Mühendisliği'nden Doç. Dr. Moriba Jah, bu durumu şöyle yorumladı:
"Musk sadece yasal olanı yapıyor. Ancak yasal olması güvenli veya sürdürülebilir olduğu anlamına gelmez."
 
Independent Türkçe, Wall Street Journal



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe