Mars'ta bir yıllık yaşam deneyimi

Kelly Haston, gençliğinde Mars'ta yaşamayı hayal etmemiş olsa da, hayatının tam bir yılını kızıl gezegende geçirmeyi hazırlanıyor, ama bu bir yılı, dünyada kalarak gerçekleştirecek.

Mars'ı simüle eden bir ortam (AFP)
Mars'ı simüle eden bir ortam (AFP)
TT

Mars'ta bir yıllık yaşam deneyimi

Mars'ı simüle eden bir ortam (AFP)
Mars'ı simüle eden bir ortam (AFP)

52 yaşındaki Kanadalı Kelly Haston, "Mars’ta imişiz gibi davranacağız" diyor. Haziran ayının sonundan itibaren Biyolog Haston, Teksas'ta yapay olarak oluşturulan Mars gezegeninde on iki ay boyunca yaşam koşullarını deneyimleyen dört gönüllü arasında olacak.

Biyolog gülerek şunu dile getiriyor: "Dürüst olmak gerekirse, durum hâlâ tam anlamıyla gerçekçi değil".

Kelly Haston (AFP)
Kelly Haston (AFP)

Adayları seçmeden önce dikkatlice mülakatlar yapan ve inceleyen NASA için bu uzun vadeli deneyler, mürettebat davranışlarını gerçek bir göreve göndermeden önce izole ve yapay bir ortamda değerlendirmeyi mümkün kılıyor.

Resim altı yazısı: Dünya üzerinde kurulan Mars'taki bir oturma odası (AFP)
Dünya üzerinde kurulan Mars'taki bir oturma odası (AFP)

Katılımcılar ekipman arızaları, su tayınlaması ve diğer "sürprizleri" içeren zor durumlarla karşı karşıya kalacak. Mürettebatın dış dünya ile iletişimlerinin koşulları, Dünya ile Mars arasındaki iletişim koşullarına benzer, yani yirmi dakikaya kadar (40 dakika ileri geri) gecikmeyle olacak.

Kelly Haston, konuyla ilgili şunu dile getirdi: "Bu deneyimi gerçekten dört gözle bekliyorum ama aynı zamanda gerçekçi olmaya çalışıyorum. Bu gerçek bir mücadele olacak".

Mars Dune Alpha olarak adlandırılan bu mekân, bir Amerikan şirketi tarafından 3 boyutlu olarak tasarlandı. Mekân, 160 metrekarelik bir alana sahip ve içinde odalar, spor salonu ve sebze yetiştirmek için dikey bir çiftlik bulunuyor.

Resim altı yazısı: Teksas'taki Johnson Uzay Merkezi'ndeki CHAPEA Mars Dune Alpha içindeki çalışma odası (AFP)
Teksas'taki Johnson Uzay Merkezi'ndeki CHAPEA Mars Dune Alpha içindeki çalışma odası (AFP)

2022 yazında katılımı onaylanmadan önce mekânı ziyaret eden Kelly Haston şöyle konuştu: Mars'ın kırmızı kum ortamını simüle eden bir dış mekan alanı bile var, ancak Kızıl Gezegende hayal edilen yaşam hissini sürdürmek için dış mekan yok. Mürettebat bir uzay giysisi giyerek uzay yürüyüşlerini simüle edebilir. Muhtemelen en çok sabırsızlıkla beklediğim şey bu".

Ekibin uyumu

Kelly Haston, NASA'nın gönüllüler aradığını öğrendiğinde başvurmakta tereddüt etmediğini şu şekilde açıkladı: "Başvurmak için bir form doldurdum. Bu, araştırma yapmanın farklı yollarını keşfetmek için hayattaki birçok hedefimle örtüşüyor.  Kendi başına uzay keşfini artırabilecek bir deneyim yaşamak son derece memnuniyet verici".

Haston'a ek olarak bir mühendis, bir acil durum doktoru ve bir hemşire, keşif gezisinin dört üyesi, seçim sürecinde bir araya geldi.

Ekibin lideri seçilen Haston, arkadaşlarıyla ilgili şuna dikkat çekti: "Aramızda büyük bir karşılıklı anlayış var. Nasıl uyumlu ve başarılı bir grup olacağımızı görmenin görevin en heyecan verici kısımlarından biri olduğuna inanıyorum. Temizlik ve yemek hazırlamayı da içerecek olan bu görevde anlayış esas olacak".

Deneme sahasına girmeden önce ekibin Houston'da bir ay sürecek bir eğitim alması bekleniyor.

Ancak acil bir durumda, örneğin tıbbi bir durumda ne olacak?

Kelly Haston bu soruyu şöyle cevapladı: "Elbette, biri yaralanırsa, bu, tedavi amacıyla dışarı çıkmak için bir neden olur".

Ancak ekip tarafından çözülebilecek durumlar için prosedürler sağlanacak. Örneğin mürettebat üyelerinin bir aile sorununu bildirmenin uygun yolları önceden düşünüldü.

İzolasyon

Haston, en büyük endişesini şöyle dile getirdi: "Eşimden ve akrabalarımdan uzakta olmak biraz üzücü. Onlarla düzenli olarak e-posta yoluyla, nadiren video aracılığıyla konuşacağım, herhangi bir canlı iletişim kuramayacağım. Dışarıda olmayı ve dağları ya da denizi görmeyi kesinlikle özleyeceğim”.

Haston, bu görevde, Afrika'da kurbağaların genetik özelliklerini incelemek için bilimsel bir göreve katılımı da dahil olmak üzere önceki deneyimlerinden yararlanmayı planlıyor. Nitekim Haston daha önce güveneceği bir cep telefonu olmadan dört kişiyle bir arabada veya bir çadırda birkaç ay yattı.

Hücre Biyoloğu Haston, son yıllarda Kaliforniya'da start-up'larla çalıştı. Haston, belirli hastalıklarla daha iyi savaşmak için kök hücre arama konusunda uzman.

Bu görev, NASA tarafından planlanan ve CHAPEA Crew Health ve Performance Exploration Analog başlığı altında toplanan üç görevden ilki.

2015-2016'da Hawaii'de NASA'nın katıldığı ancak bu sözde HI-SEAS görevlerinden doğrudan sorumlu olmadığı, Mars'ta yaşamı simüle eden bir yıllık bir deney gerçekleştirildi.

ABD uzay ajansı, Artemis programı aracılığıyla, muhtemelen 2030'ların sonlarında Mars'a yapılacak bir geziye hazırlanmayı amaçlayan insanları aya götürmek için projeler başlattı.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe