NASA araştırmacıları göktaşı tehdidini değerlendirdi: Tehlikeyi halktan saklayacaklar mı?

Don't Look Up'ın bilim danışmanı, NEOWISE kuyrukluyıldızını örnek aldı. Gök cismi 14 Temmuz 2020'de Dee Wright Gözlemevi'nde böyle görüntülenmişti (AP)
Don't Look Up'ın bilim danışmanı, NEOWISE kuyrukluyıldızını örnek aldı. Gök cismi 14 Temmuz 2020'de Dee Wright Gözlemevi'nde böyle görüntülenmişti (AP)
TT

NASA araştırmacıları göktaşı tehdidini değerlendirdi: Tehlikeyi halktan saklayacaklar mı?

Don't Look Up'ın bilim danışmanı, NEOWISE kuyrukluyıldızını örnek aldı. Gök cismi 14 Temmuz 2020'de Dee Wright Gözlemevi'nde böyle görüntülenmişti (AP)
Don't Look Up'ın bilim danışmanı, NEOWISE kuyrukluyıldızını örnek aldı. Gök cismi 14 Temmuz 2020'de Dee Wright Gözlemevi'nde böyle görüntülenmişti (AP)

Netflix'in yeni filmi Don't Look Up (Yukarı Bakma), uzayın derinliklerinde muhtemelen Dünya'yla karşılaşmayı bekleyen göktaşlarına yönelik ilgiyi artırdı.
Yönetmen koltuğunda Adam McKay'in oturduğu kara komedi, Dünya'ya çarpmak üzere hızla ilerleyen dev bir kuyrukluyıldız karşısında insanların verdiği tepkileri konu alıyor.
Filmin en ilginç noktalarından biri, kuyrukluyıldızı keşfeden iki gökbilimcinin, NASA'nın Gezegen Savunma Koordinasyon Ofisi'yle iletişime geçtiği anlar. Leonardo DiCaprio'nun canlandırdığı Prof. Randall Mindy, bu ofisin başkanıyla telefonda konuştukları sırada "Orası gerçek bir yer mi?" diye soruyor.

Görselin sağında Gezegen Savunma Koordinasyon Ofisi'nin logosu yer alıyor (Netflix / Space)
Aslında Ocak 2016'da NASA bünyesinde kurulan örgüt, tamamen gerçek ve herhangi bir çarpışma riski söz konusu olduğunda hükümete, medyaya ve halka zamanında ve doğru bilgi sağlamaktan sorumlu. Film aynı zamanda NASA'nın bu sorumluluğu ne ölçüde yerine getirebileceğini de masaya yatırıyor.
Bu da akla, "Dünya'ya doğru hızla ilerleyen, tehlikeli bir göktaşı varsa NASA ne yapar, bunu halka duyurur mu?" gibi soruları gündeme getiriyor.

"NASA'nın bir planı var"
Uzay ajansının Dünya'ya yakın nesneleri gözlemlediği görevlerde program yöneticisi olarak çalışan Kelly Fast, aslında tam da Gezegen Savunma Koordinasyon Ofisi'nin bir mensubu.
NASA'nın "Dünya'ya asteroit çarpacak mı?" adlı kısa videosunda yer alan Fast, "Evet, tarih boyunca asteroitler Dünya'ya çarptı ve bu tekrar olacak" cevabını veriyor.
"Asteroitler bizi bulmadan önce onları bulmamız önemli, çünkü onlar bizi yakalamadan önce bizim onları yakalamamız gerekecek" diyen bilim insanı, sözlerini şöyle sürdürüyor:
"Bir asteroit çarpması, önlenebilecek tek doğal afettir. Gezegen Savunma Koordinasyon Ofisi, asteroitleri keşfetme ve yörüngelerini hesaplama projelerini destekliyor."
Fast'e göre onlarca yıldır devam eden çalışmaları gözden geçiren ofis, şimdiye dek herhangi bir çarpışma tehdidi tespit edemedi. Yine de NASA'nın her zaman bir "planı" var.

DART görevi
Bilim insanına göre NASA'nın tehlikeli göktaşlarına karşı hazırladığı en önemli plan, DART (Çifte Asteroit Yönlendirme Denemesi) adı verilen uzay aracı. Zira DART, asteroitleri yolundan saptırma yöntemlerinin denendiği ilk gezegen savunma görevi.
24 Kasım'da SpaceX'in Falcon 9 roketiyle fırlatılan uzay aracı, Güneş Sistemi'nin dikkat çeken ama Dünya'ya yönelik herhangi bir tehlike arz etmeyen iki göktaşına doğru yol alıyor. Aracın Didymos ve onun doğal uydusu Dimorphos'a eylülde ulaşması bekleniyor.
Bilim insanları bu görevle Didymos'un etrafında dönen Dimorphos'un yörüngesini değiştirmeyi hedefliyor. Bu nedenle uzay aracı Dimorphos'a saniyede yaklaşık 6,6 km. hızla kasten çarparak göktaşının hızını yüzde 1 oranında değiştirecek. Bu da cismin yörüngesini tamamlamak için geçen sürenin birkaç dakika sapacağı anlamına geliyor.

Johns Hopkins Üniversitesi'nde inşa edilen uzay aracının üzerinde gelişkin kamera sistemleri de yer alıyor (NASA)
NASA'nın aktarımına göre, Dimorphos'un yörüngesinde meydana gelecek bu değişim, Dünya'daki teleskoplarla gözlemlenecek ve görevin başarılı olup olmadığı anlaşılacak.
NASA göktaşı tehdidini halktan saklar mı?
5 Aralık'ta yayımlanan Don't Look Up, olası bir tehlike sırasında halkın siyasilere ve teknoloji milyarderlerine ne kadar güvenebileceğini de tartışıyor. Bu da akla "NASA ne kadar güvenilir?" sorusunu getiriyor.
NASA'nın Goddard Merkezi'nde bilim iletişiminden sorumlu gökbilimci Michelle Tyler, daha önce bu soruya esprili ama net cevaplar vermişti:
"Bütün bilim insanlarının harika şaraplar satın aldığı, kredi kartlarının limitini doldurduğu ve ortadan kaybolduğu gün, endişelenmek isteyebilirsiniz."
Youtube kanalı Big Think'in sorularını yanıtlayan Tyler, "Ama biz bile böyle çalışmıyoruz" diye eklemişti:
"Biz insanız ve tehlikeli bir şeyin geleceğini bilseydik, onu saklamamızın bir yolu olmazdı. Bunun, komplo teorisyenlerini ikna etmeyeceğini biliyorum ama NASA'daki çalışmalarımıza dair en sevdiğim şeylerden biri, bunların şeffaflığı ve kötü bir şey olsa bile size anlatacak olmamız."

"Kuyrukluyıldız bir alegori"
Don't Look Up'ın bilim danışmanlarından Amy Mainzer, NASA'nın Dünya'ya yaklaşan asteroitleri ve kuyrukluyıldızları gözlemleyen, Geniş Alan Kızılötesi Araştırma Gezgini adlı uzay teleskobunun baş araştırmacısı.
Mainzer, fiilme danışmanlık yaptığı sırada ünlü kuyrukluyıldız NEOWISE'tan ilham aldığını söylüyor:
"Filmin ihtiyaçlarına uygun ama aynı zamanda gerçeklikten çok da uzak olmayan bir şey seçmeye çalıştım."
Öte yandan bilim insanına göre filmdeki kuyrukluyıldız, iklim değişikliği, Kovid-19 pandemisi ve bugünün diğer acil sorunlarını temsil ediyor.
"Bu film insanların hayal etmesi zor problemlerle boğuşmasının ne kadar zor olduğuna dikkat çekiyor. Kendi gözünüzle bir karbondioksit molekülünü veya bir metan molekülünü göremezsiniz, virüsü kendi gözlerinizle göremezsiniz ama bunlar çok gerçektir" diyen Mainzer, sözlerini şöyle sürdürdü:
"Bilime dayalı kararlar vermemiz gerekiyor. Bu önemli çünkü yapmazsak, ister asteroitlerden ve kuyrukluyıldızlardan isterse iklim değişikliği, aşırı hava koşulları veya pandemiden gelsin, bir dizi farklı tehdit için mümkün olan en iyi sonuçları elde edemeyiz."
Independent Türkçe, Space, ScienceAlert, CNET



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe