Ünlü Harvard profesörü, "uzaylı yapımı" dediği metal küreleri incelemeyi tamamladı

Fizikçi bu sıradışı küreleri okyanustan çıkarmıştı

Görüntüde beyaz okla gösterilen 0,4 milimetre çapındaki demir küre, IM1'in düştüğü bölgeden toplanan malzemenin bir parçası (Avi Loeb / Medium)
Görüntüde beyaz okla gösterilen 0,4 milimetre çapındaki demir küre, IM1'in düştüğü bölgeden toplanan malzemenin bir parçası (Avi Loeb / Medium)
TT

Ünlü Harvard profesörü, "uzaylı yapımı" dediği metal küreleri incelemeyi tamamladı

Görüntüde beyaz okla gösterilen 0,4 milimetre çapındaki demir küre, IM1'in düştüğü bölgeden toplanan malzemenin bir parçası (Avi Loeb / Medium)
Görüntüde beyaz okla gösterilen 0,4 milimetre çapındaki demir küre, IM1'in düştüğü bölgeden toplanan malzemenin bir parçası (Avi Loeb / Medium)

Harvard Üniversitesi’nden ünlü astrofizikçi Avi Loeb, 2014'te Dünya'ya düşen gök cisminin uzaylılara ait olabileceği fikrinde ısrar ediyor.

O tarihte Papua Yeni Gine'nin üzerinde parıldayan bir ateş topu, bölgeden geçerken enkaz saçmış ve bu parçalar okyanusa düşmüştü.

ABD hükümetine ait sensörler, IM1 adı verilen bu ateş topunun hızını saatte 177 bin kilometre olarak ölçmüştü.

Nesnenin geride bıraktığı yüzlerce küçük manyetik küre yıllarca okyanus tabanında incelenmeyi bekledi.

Söz konusu parçaları bulup çıkarmak için bir görev tasarlayan Loeb, bu kürelerin uzaylılara ait olası "tekno-imzalar" (insan olmayan varlıklar tarafından üretilen teknolojinin izleri) barındırabileceğine inanıyor. 

Kısa süre önce bir keşif ekibiyle bölgeye giden Loeb ve ekibi, söz konusu ateş topuna ait olduğundan şüphelendikleri manyetik parçalar çıkardı.

Loeb bu parçaları yaklaşık iki aydır inceliyor. Kısa süre önce Medium sayfasında bir yazı yayımlayan bilim insanı, onlarca küçük kürenin analizini tamamladığını duyurdu.

Loeb bu parçalara o kadar inanıyor ki onları okyanustan topladıkları keşif seferine "Galileo Projesi" adını verdi. Keşifte 700'ten fazla parça toplandı ve bunların 57'si daha kapsamlı biçimde analiz edilmek üzere ayrıldı.

Yıldızlararası nesne

Loeb, IM1 ateş topunun yıldızlararası bir nesne olduğu görüşünde. 2019'da bu görüşünü açıkladığı bir makale de kaleme almıştı.

Makale, bilimsel dergi Astrophysical Journal'a gönderilmiş ve reddedilmişti. Ancak ABD Uzay Kuvvetleri Komutanlığı geçen yıl, bu ateş topunun "yıldızlararası bir meteorit" olduğunu bildirmişti.

Bunun ardından dergi, Loeb ve öğrencilerinin kaleme aldığı makaleyi yayımlamayı kabul etmişti.

Öte yandan herkes bu konuda hemfikir değil.

Örneğin, Western Üniversitesi'nden meteor fizikçisi Peter Brown, Uzay Kuvvetleri'nin verilerinin ne kadar kesin olduğunu bilmediklerini söylüyor.

Dr. Brown, "Yer tabanlı radar ve optik ağlarıyla çalışırken elde ettiğimiz deneyimlerden şunu biliyoruz: Tespit ettiğiniz tüm nesnelerin yüzde birkaçı yıldızlararası uzaydan gelmiş gibi görünür. Bunu sıklıkla görürüz" diyor.

"Güneş dışından gelen elementler"

57 nesne üzerindeki incelemesini tamamlayan Loeb ise son yazısında ateş topunun Güneş Sistemi'nin dışından geldiği hipotezini yeniden dile getirdi.

Yazıya göre ateş topu atmosferde muazzam derecede ısındığında bazı parçaların yüzeyinde erimiş damlacıklar oluştu.

Loeb bu damlacıkları analiz ettiğini ve "Güneş Sistemi'nin dışından gelen elementlerin daha önce hiç görülmemiş bir kompozisyona sahip olduğunu" yazdı.

Bu bulgu, bağımsız uzmanlar tarafından da teyit edilebilirse tarihi bir keşfin kapısını arayabilir.

Uzaylılara ait olabilir mi?

Loeb bu türden cisimlerin Dünya dışı yaşama ait teknolojilerin parçaları olabileceği inancında. Bu yüzden de söz konusu metal kürelerin uzayda hayat bulmanın yolu olabileceğine inanıyor.

Bilim insanı daha önce IM1 için "Büyük olasılıkla yapay zekaya sahip teknolojik bir alet" ifadelerini kullanmıştı.

Oumuamua ilk mi, değil mi?

Dr. Loeb, kariyerinin büyük bölümünde kara delikler, karanlık madde ve ilk yıldızlara dair yüzlerce makaleye önderlik etti. Harvard Üniversitesi'nde Astrofizik Bölümü'nün yöneticiliğini yaptı.

Ancak 2017'de Güneş Sistemi'ne giren yıldızlararası bir nesne, Loeb'in uzayda yaşam arayışına eğilmesine ve hatta meslektaşlarına göre buna giderek takıntılı hale gelmesine neden oldu.

Loeb'in, 2017’de Güneş Sistemi'nden geçerken tespit edilen ve "keşfedilen ilk yıldızlararası nesne" unvanını alan Oumuamua'yla ilgili teorileri büyük yankı uyandırmıştı.

Astrofizikçi bu gizemli gök cisminin uzaylılara ait bir "ışık yelkenlisi"nden koptuğunu ve 25 ışık yılı uzaktaki Vega yıldızı yönünden, Güneş Sistemi’ne doğru savrulduğunu ileri sürmüştü. 

Gökbilimci ışık yelkenlisini, kitabın tanıtımı için verdiği bir röportajda şöyle tanımlamıştı:

Işık yelkenlisini rüzgar gücünden yararlanan bir yelkenli [uzay aracı] gibi düşünebilirsiniz. Rüzgar yelkenliyi iter. Işık yelkeni söz konusu olduğunda ise onu iten şey, yüzeyinden yansıyan ışıktır.

Oumuamua uzun zaman önce Güneş Sistemi'ni terk ettiği için cisme yakından bakmak artık mümkün değil.

Öte yandan Loeb'in teorisi doğrulanırsa IM1, Oumuamua'yı tahtından ederek keşfedilen ilk yıldızlararası nesne unvanını alacak.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe