Yıldızlararası seyahat: "Yıllar sürecek iletişim kesintilerine hazır olmak gerek"

En yakın yıldız sistemi Alpha Centauri, 4 ışık yılından daha uzakta

Zaman genişlemesi, Cristopher Nolan'ın bilimkurgu filmi Yıldızlararası'nda (Interstellar) teorik fizikteki tasvirlerine çok yakın biçimde işlenmişti (IMDb)
Zaman genişlemesi, Cristopher Nolan'ın bilimkurgu filmi Yıldızlararası'nda (Interstellar) teorik fizikteki tasvirlerine çok yakın biçimde işlenmişti (IMDb)
TT

Yıldızlararası seyahat: "Yıllar sürecek iletişim kesintilerine hazır olmak gerek"

Zaman genişlemesi, Cristopher Nolan'ın bilimkurgu filmi Yıldızlararası'nda (Interstellar) teorik fizikteki tasvirlerine çok yakın biçimde işlenmişti (IMDb)
Zaman genişlemesi, Cristopher Nolan'ın bilimkurgu filmi Yıldızlararası'nda (Interstellar) teorik fizikteki tasvirlerine çok yakın biçimde işlenmişti (IMDb)

Yıldızlararası yolculuğu başarmak insanlık için henüz imkansız görünüyor. Zira Güneş Sistemi'nin dışına çıkıp farklı yıldızlar arasında dolaşmak için olağanüstü bir hıza ulaşmak gerek.

Üstelik yeni bir araştırma, yolculuğa çıkacak astronotların yoğun bir iletişim kesintisine maruz kalacağına da işaret ediyor.

Hakem onayından geçmeyi bekleyen ve bilimsel makale arşivi arXiv'de erişime açılan araştırma makalesinde iletişim kesintilerinin yıllar sürebileceği ifade edildi.

Buradaki ilk sorun, ışığın kendisinin sınırlı bir hızda hareket etmesi. Örneğin mesajların Mars'a ulaşması birkaç dakika, ötegezegenlere ulaşması ise saatler sürüyor.

Daha uzun mesafeli iletişim söz konusu olduğunda Dünya'dan gönderilecek herhangi bir mesajın uzay aracına ulaşması yıllar alabilir.

Nitekim bizimkine en yakın yıldız sistemi Alpha Centauri, 4 ışık yılından daha uzakta.

Öte yandan iletişimin önündeki tek engel bu değil.

Ünlü fizikçi Albert Einstein'ın Özel Görelilik Teorisi'ne göre evrende zaman senkronize değil. Bu da uzay aracındaki yolcuların, zamanın Dünya'daki insanlara göre daha yavaş aktığı bir "zaman genişlemesi" yaşayacağı anlamına geliyor.

Bu etki halihazırda ölçülebilir nitelikte. Örneğin GPS uydularından gelen sinyallerin senkronizasyonunda bile bu etki dikkate alınıyor.

Ancak dikkate alınması gereken önemli bir sorun daha var.

Yıldızlararası ortamda seyahat edebilecek, hatta Samanyolu Galaksisi'nden çıkabilecek bir uzay aracı, zorunlu olarak ışık hızına yakın hareket etse bile iletişimin kesildiği dönemler geçirecek.

İki senaryo

Araştırmacılar makalelerinde iki varsayımsal yıldızlararası seyahat senaryosunu masaya yatırdı.

İlkinde, gezginler uzay araçlarını sabit 1 g'lik (Dünya üzerindeki ortalama yerçekimi ivmesi) bir ivmeyle hızlandırmaya devam etti. Bu sayede uzay aracını ışık hızına daha da yaklaştırdılar.

Ancak bu tür bir sabit ivme, bir çeşit olay ufku yaratıyor. Yani eğer Dünya'dan uzay aracına bir mesaj gönderilirse, bu mesaj da ışık hızıyla sınırlı olacaktı. Mesaj uzay aracına doğru hızla ilerleyecekti ama bu arada gemi de sinyalden uzaklaşacaktı.

Hesaplamalara göre mesaj yeterince erken gönderilirse, önemli bir gecikmenin ardından sonunda gemiye ulaşıyor. Ancak uzun süre beklerlerse asla ulaşmıyor çünkü uzay aracı her zaman mesajın bir adım ilerisinde oluyor.

İkinci senaryo da farklı zorluklar sundu. Bu senaryoda uzay aracı ilk başta sürekli hızlandu. Ancak yolculuğunun ortasında kendi etrafında dönerek yavaşladı. Böylece hedefini kaçırma ihtimali elenmiş oldu.

Ancak bu da iletişim zorluklarını beraberinde getirdi.

Hesaplamalar, uzay aracının belirli bir süre sonra Dünya'dan mesaj almayı bıraktığını gösterdi. Bu mesajlar ancak aracın hedefine ulaşıp hareket etmeyi bıraktığında varsayımsal astronotlara ulaştı.

Öte yandan uzay aracının Dünya'ya sinyal gönderebileceği ve bu sinyallerin her zaman hedeflerine ulaşabileceği görüldü.

Ayrıca hedeften gönderilen sinyaller (örneğin uzak bir gezegende halihazırda kurulmuş bir koloni), o yöne doğru seyreden uzay araçlarına her zaman ulaşabildi.

Bu hesaplamalar, ışık hızına yakın hareket eden uzay araçlarıyla iletişimin çok zor olacağı anlamına geliyor.

Diğer bir deyişle tüm yıldızlararası araçların kendi kendine yetebilmesi ve Dünya'daki kontrolörlere ihtiyaç duymadan çalışabilmesi gerekiyor.

Zira bir sorun çıkarsa, bunu Dünya'daki insanlara anlatmak ve yanıt almak mümkün olmayacak.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe