ABD’li SpaceX’in başarısı, Rus uzay tekelini kırdı mı?

Fırlatılan SpaceX uzay aracı (Reuters)
Fırlatılan SpaceX uzay aracı (Reuters)
TT

ABD’li SpaceX’in başarısı, Rus uzay tekelini kırdı mı?

Fırlatılan SpaceX uzay aracı (Reuters)
Fırlatılan SpaceX uzay aracı (Reuters)

Florida’dan fırlatıldıktan yaklaşık 19 saat sonra, Amerikalı astronotlar Doug Hurley ve Bob Behnken'i taşıyan ve SpaceX’e ait olan Crew Dragon kapsülü, dün Uluslararası Uzay İstasyonu'na (ISS) ulaştı. Crew Dragon, 2011’den ISS’ye fırlatılma görevini gerçekleştiren insanlı tek ABD kapsülü oldu. 
Reuters’ın haberine göre, milyarder Elon Musk'a ait uzay taşımacılığı şirketi SpaceX'in Cumartesi günü gerçekleştirdiği fırlatış, şirketin daha ucuz ve daha sık uçuş yapmak amacıyla ortaya çıkardığı yeniden kullanılabilir füze alanında yeni bir sıçramaya işaret ediyor.
İlk defa ticari bir şirket, NASA astronotlarını değil de ABD astronotlarını taşıyan uzay aracı geliştirip işletiyor.
AFP’nin haberine göre, bu yeni gelişme öncesinde, bu uçuşları daha güvenli ve uygun fiyatlı Rus Soyuz uzay araçları gerçekleştiriyordu.
Bu yüzden uzmanlar, SpaceX uçuşunu tekelin sonu olarak görüyor. Bundan sonra ISS’ye insan gönderen tek ülke Rusya olmayacak. Rusya’nın uzay programını yenilemesi gerektiği de ayrı bir gerçek.
Dokuz yıldır tüm astronotlar, ancak Rusya'da eğitim alıp Rusçayı öğrendikten sonra Baykonur Uzay Üssü’nden ISS’ye gidebiliyordu.
Rusya Federal Uzay Ajansı Roscosmos, SpaceX uzay aracının fırlatılmasını memnuniyetle karşıladı. Roscosmos Direktörü Sergey Krikalev, “Bu görevin başarısı, bizlere yeni olanaklar sağlayacak” dedi.
Ancak başarının Ruslara olan darbesi ağırdı. Fransız Ulusal Bilimsel Araştırmalar Merkezi uzay politikası uzmanı Isabelle Sourbes-Verger, “Bu uçuşlar Moskova'nın Soyuz üretmeye devam etmesi ve ISS konusundaki görüşmelerdeki önemli konumunu sürdürmesi hakkında beklenmedik bir fırsattı” dedi.
NASA’nın Roscosmos ile ISS’ye gönderilecek her astronot için bir koltuk edinmesi, 80 milyon dolara mal oluyordu. Moskova'daki Tsiolkovsky Uzay Akademisi uzmanı Andrei Ionin, SpaceX tüm ABD astronotlarını taşıyan tek şirket olduğu taktirde Roscosmos’un yılda en az 200 milyon dolar kaybedeceğini, bunun da bütçesine yaklaşık 2 milyar dolarlık önemli bir kayıp olarak yazılacağını vurguladı.
Roscosmos sözcüsü Pazar günü yaptığı açıklamada, ABD'nin hala Rusya'ya ihtiyacı olduğunu söyleyerek “İstasyona ulaşmak için en az iki seçeneğiniz olması önemli bir husustur, zirâ kimse neler olup bitebileceğini bilemez” dedi.
Elon Musk, bir koltuğun 60 milyon dolar fiyatında olacağını söylerken Roscosmos Başkanı Dmitriy Rogozin ise koltuk fiyatlarında yüzde 30 indirim uygulamak istediğini açıkladı.
Ionin ise “SpaceX, ucuz motorlar kullanıp neredeyse tüm parçalarını üreterek tasarruf sağlıyor. Rusya ise bunu yapmak için üretim sürecini değiştirmek zorunda kalacak. Biz uzay aracı fırlatma pazarını kaybettiğimiz vakit Roscosmos ise her şeyin yolunda olduğunu söylüyordu. Şimdi ise ellerindeki kartlar tükendi.
” dedi.
Başka bir seçenek NASA Başkanı Jim Bridenstine ise ABD uzay gemisindeki her bir Rus karşılığında Soyuz’de bir Amerikalı olacak şekilde takas sistemini öneriyor.
Daha geniş anlamda, Ionin’e göre, SpaceX gibi bir rakibin ortaya çıkması söylenenden çok daha kötü durumda olan Rus uzay endüstrisi için uyarı niteliğinde olmalıdır.
10 yıl önce Rusya, dünyadaki uzay aracı fırlatmalarının büyük bir kısmının gerisindeydi. Ancak Çin ve Space’ın rekabeti nedeniyle durum böyle değil.
Rusya'nın uzay sektörü, Uzak Doğu'daki yeni Vostoçni Uzay Üssü inşası hakkındaki birden fazla yolsuzluk skandalıyla gölgeleniyor.
Ionin’a göre uzay endüstrisinde büyük bir gelişme olmadan Sovyet teknolojisini değiştirmeye odaklanan Rusya, kaynak eksikliği ve gerçek siyasi iradenin yokluğu nedeniyle yenilik yapamıyor.
Mars'a ulaşmayı hedefleyen SpaceX gibi özel şirketlerin nüfuzundaki artış, yakalanması zor bir teknolojik sıçramadır.
Ionin, Rusya'nın yarışta kalması için uzay sektörünün ana oyuncularından bağımsız bir organının strateji geliştirmesi gerektiğini söyleyerek “ABD Başkanı Trump, bu konuda hedef belirlemek içi Ulusal Uzay Konseyini kurdu. Biz de aynı şeyi yapmalıyız” dedi.
Ancak bazı gözlemciler, askeri yetenekleri, özellikle de hipersonik füzeler geliştirmek için roket bilimi üzerine daha çok düşen Başkan Vladimir Putin'in siyasi irade eksikliğini hissediyorlar.
Bağımsı bir uzay uzmanı olan Vitaly Yegorov, “Devletin gücünü göstermek söz konusu olduğunda uzay araştırmaları Putin’in önceliği değildir” diyor.

ISS’ye dair ortak çalışmaların sona erdiği söylenirken Isabelle Sourbes-Verger ise Rusya'nın yeteneklerini paylaşarak konumunu yeniden kazanması için Mars’ın iyi bir fırsat olabileceğine değindi.
Ancak, bu tür herhangi bir görev maliyetinin çok yüksek olacağını ve bu kararı verecek siyasi bir tarafın olmadığı söyleyen Verger, bu yüzden şuanda dünyanın ikinci uzay gücü olan Çin'in de dahil edilmesi gerektiğini söyledi.
Ancak aynı zamanda “ABD Kongresi, Çin ile uzay işbirliğinde bulunmayı reddediyor” ifadelerini kullandı.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe