NASA uzmanları, uzay uçuşuna hazırlanan Jeff Bezos'un ölüm ihtimalini hesapladı

Fotoğrafta Jeff Bezos, arka planda New Shepard roketiyle Blue Origin fırlatma rampasında. (Blue Origin)
Fotoğrafta Jeff Bezos, arka planda New Shepard roketiyle Blue Origin fırlatma rampasında. (Blue Origin)
TT

NASA uzmanları, uzay uçuşuna hazırlanan Jeff Bezos'un ölüm ihtimalini hesapladı

Fotoğrafta Jeff Bezos, arka planda New Shepard roketiyle Blue Origin fırlatma rampasında. (Blue Origin)
Fotoğrafta Jeff Bezos, arka planda New Shepard roketiyle Blue Origin fırlatma rampasında. (Blue Origin)

Dünyanın en zengin kişisi unvanlı Jeff Bezos, 20 Temmuz'da uzaya çıkmaya hazırlanıyor. Bu uçuş, Bezos'un sahibi olduğu Blue Origin firmasının New Shepard adlı roketinin ilk mürettebatlı uçuşu niteliğinde.
Uzmanlara göreyse bu uçuş, diğer uzay uçuşlarının çoğu gibi tehlikeli olacak. Livescience'ın konuştuğu uzmanlar, Bezos'un kaza geçirme ihtimalini yaklaşık 200'de 1 olarak hesapladı. Bu son derece yüksek bir risk olsa da mürettebatın hayatta kalma ihtimali epey fazla.
Amazon'un eski CEO'su Bezos'un yolculuğu, NASA'nın Apollo 11 görevinin Ay'a inişinin 52. yıldönümüne denk geliyor. Bezos, diğer üç ekip üyesiyle birlikte 11 dakikalık bir yolculuğa katılacak. Otonom çalışan ve 6 yolcu alabilen New Shepard kapsülü, Teksas'ta bir uzay kompleksinden 100 kilometre yüksekliğe fırlatılacak.
Bezos'un en büyük rakiplerinden, Britanyalı milyarder Richard Branson, birkaç gün önce kendi firması Virgin Galactic'le başarılı bir uçuş gerçekleştirmişti.
Ancak uzay uçuşu, doğası gereği riskli bir iş. NASA için risk hesaplamaları yapan Joseph Fragola'ya göre bu riski etkileyen ana faktörler arasında fırlatma şirketinin deneyimi, aracın gerçekleştirdiği fırlatma sayısı ve kullanılan roket motorunun türü yer alıyor.
Blue Origin, mürettebatsız testlerde New Shepard'ı 15 kez uçurdu. Bunlardan biri, kısmen başarısızlıkla sonuçlanmıştı; yolcu kapsülü güvenli bir şekilde inmiş, roket güçlendiricisiyse düşmüştü.
Fragola bu uçuşları "son derece olumlu" diye niteledi.
NASA araçlarının risk analizinde görev alan elektrik mühendisi Blake Putney de New Shepard'ın yörüngeye girmeyeceğini, yalnızca kısa bir gezintiye çıkacağını aktarıyor.
Putney ayrıca, araçta nispeten basit bir tek motor kullanıldığını da hatırlatıyor.
New Shepard'ın BE-3 (Blue Origin-3) motoru, kalkış sırasında yaklaşık 50 bin kilogramlık itiş gücü üretiyor. Bu, fırlatma rampasında toplam 544 bin kilogramlık itiş kuvveti oluşturan NASA motorlarının yanında çok daha az.
Putney'ye göre seyahat süresi ve motorların karmaşıklığı ne kadar artarsa arıza riski de o kadar fazla oluyor.
Öte yandan her iki uzman da birçok kez kullanılmış ve mühendislik ekiplerinin hataları düzeltmesine olanak tanımış fırlatma araçlarının çoğunun, bin uçuşta kabaca bir kez başarısız olma ihtimali bulunduğunu söylüyor.
Fragola, "Uçaklarla karşılaştırıldığında bu korkunç" diyor ve ekliyor:
"ABD'deki bir uçak şu anda 100 milyonda 1 ila milyarda 1 arasında risk taşıyor."
Blue Origin'in şu ana kadarki deneyimini göz önüne alan Fragola, rokette bir şeylerin yanlış gitme ihtimalinin, "yüzde 1 ila 500'de 1" olduğunu tahmin etti. Fragola'ya göre en yakın tahminse 200'de 1'e denk geliyor.
Yine de New Shepard'ın mürettebat kapsülü, motordan uzakta olduğundan bir felaket durumunda ayrılıp kaçma fırsatına sahip. Bu da yolcuların güvenliğine ilişkin tahminleri iyileştiriyor.
Bu nedenle Fragola, Bezos ve diğer yolcuların bu seyahatten sağ çıkmama ihtimalini binde 1 olarak tahmin ediyor.
ABD Ulusal Güvenlik Konseyi'nin verilerine göre bu oran, ortalama bir yurttaşın boğularak ölme riskiyle hemen hemen aynı.
Fragola, uçuşta Jeff Bezos'a katılmak isteyip istemediği sorusuna ise şöyle yanıt veriyor:
"Kesinlikle isterdim. Parasını siz ödeyin, ben orada olacağım!"
Blue Origin, söz konusu uçuş için bir koltuk fiyatını müzayedede açık artırmaya sunmuştu. Koltuk, tam 28 milyon dolara satılmıştı.
Uçuşta Bezos'un kardeşi Mark Bezos, NASA'nın Mercury 13 görevinden 82 yaşındaki Wally Funk ve 18 yaşındaki fizik öğrencisi Oliver Daemon yer alacak.
28 dolara bilet satın alan kişinin ismi bilinmiyor. Söz konusu kişinin biletini Daemon'a bağışladığı ifade ediliyor.
Independent Türkçe, Livescience, Space



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe