Alman fizikçi simülasyonda yaşayıp yaşamadığımızı öğrenmek için bir deney yapmaya hazırlanıyor

"Bitlerin saptanması simülasyon hipotezini kanıtlayacaktır"

Daha önce yapılan bir hesaplama, evrenin simülasyon olma ihtimalinin yaklaşık yüzde 50 olduğunu ortaya koymuştu (Pixabay)
Daha önce yapılan bir hesaplama, evrenin simülasyon olma ihtimalinin yaklaşık yüzde 50 olduğunu ortaya koymuştu (Pixabay)
TT

Alman fizikçi simülasyonda yaşayıp yaşamadığımızı öğrenmek için bir deney yapmaya hazırlanıyor

Daha önce yapılan bir hesaplama, evrenin simülasyon olma ihtimalinin yaklaşık yüzde 50 olduğunu ortaya koymuştu (Pixabay)
Daha önce yapılan bir hesaplama, evrenin simülasyon olma ihtimalinin yaklaşık yüzde 50 olduğunu ortaya koymuştu (Pixabay)

Birleşik Krallık'taki Portsmouth Üniversitesi'nde görev alan Alman fizikçi Melvin Vopson, evrenin aslında bir simülasyon olabileceği düşüncesini bilimsel yöntemlerle sınamaya hazırlanıyor.
Vopson, deney için gerekli harcamaları karşılama amacıyla bağış toplamaya başladı. 219 bin dolar elde etme hedefiyle kampanya başlatan bilim insanı, şimdilik yalnızca bin dolar toplayabildi.
Vopson, insanlara deneyin amacını ve nasıl yapılabileceğini anlatmak için The Conversation'da simülasyon teorisini ele aldı ve bunu kanıtlayacağını düşündüğü yöntemi açıkladı.

Simülasyon teorisi nedir?
Simülasyon teorisi, kabaca, bu evrenin aslında başka canlıların tasarladığı bir bilgisayar programı olduğu anlamına geliyor. Teori, "Evrende yaşam nasıl ortaya çıktı?" sorusuna kadar dayanıyor.
Dünya'da ve dolayısıyla evrende yaşamın gelişmesi için gereken karmaşık koşulların ve olaylar zincirinin nasıl ortaya çıkabildiği bilim dünyasının en büyük gizemlerinden.
Bazı fizikçiler, çoklu evren teorisinin bu soruyu cevaplayabileceğine inanıyor. Buna göre bizimki gibi birçok evrenin var olduğu farz edilirse en az bir tanesinde gerekli koşulların oluşması şaşırtıcı değil.
Öte yandan bazı bilim insanları bu soruya tamamen farklı bir cevap veriyor: Evren, birilerinin bilgisayarda ince ayarlamalar yaptığı bir simülasyon olabilir.
Vopson'a göre ikinci seçenek, bilgi fiziği adı verilen bir bilim dalının alanına giriyor. Bu da fiziksel gerçekliğin aslında "uzay-zaman deneyimimizi ortaya çıkaran bilgi parçalarından" oluştuğu anlamına geliyor.
Vopson, The Conversation'daki yazısında bunu şöyle açıklıyor:
"1989'da efsanevi fizikçi John Archibald Wheeler, evrenin temelde matematiksel olduğunu ve bilgiden doğmuş olabileceğini söyledi. Yani ünlü aforizmayı 'bit'lerden icat etti."
Bilgisayar dilinde bilgi depolayan en küçük ve en temel birime "bit" adı veriliyor.
"Aşırı yüklenmiş bir işlemcinin bilgisayardaki işlemleri yavaşlattığını biliyoruz" diyen bilim insanı, teoriyi Einstein'dan bir örnekle açıklıyor:
"Benzer şekilde Albert Einstein'ın genel görelilik kuramı da kara deliğin yakınında zamanın yavaşladığını gösteriyor."

Deneyi nasıl yapacak?
Vopson, 2019'da Einstein'ın genel görelilik kuramına dayandırdığı bir teori ortaya atmıştı. Bu teoriye göre her bilgi parçasının sonlu ve ölçülebilir bir kütlesi olmak zorunda. 
Örneğin bilgi yüklü bir sabit disk, aynı diskin boş versiyonundan daha ağır olmalı. Öte yandan, bu kütle farkı çok küçük bir değişikliğe tekabül ettiği için eldeki olanaklarla ölçülmesi ve dolayısıyla fizikçinin teorisini kanıtlaması şimdiye dek mümkün olmadı.
Vopson ise yakın gelecekte bu teoriyi kanıtlamanın mümkün olduğunu düşünüyor. Fizikçinin şimdilik yalnızca kağıt üzerinde tasarladığı deneyde iki varsayım öne çıkıyor.
Bunlardan ilki, bilginin de kütleye sahip olduğuna yönelik ana tahmin.
İkinci varsayıma göreyse tüm temel parçacıklar, canlıların DNA tarafından kodlanmasına benzer şekilde, kendileriyle ilgili bilgi içeriğini depoluyor. Diğer bir deyişle her elektron bir bilgi taşıyor.
Vopson bu ikinci varsayımına dayanarak maddeyi anti-maddeyle (diğer bir deyişle elektronu pozitronla) çarpıştırmak istiyor:
"Tüm parçacıklar kendileriyle aynı olan ama zıt yüke sahip 'karşı' versiyonlarına sahiptir. Bunlara anti-madde deniyor. Bir enerji patlamasında bu iki madde 'fotonlar' yani daha hafif parçacıklar yayarak birbirini yok ediyor."
Vopson, bu parçacıklar yok edildiğinde geriye bilginin kalacağını düşünüyor. Bu bilginin düşük enerjili kızılötesi fotonlara dönüşeceğini ve bunu da söz konusu deneyle kanıtlayabileceğini ifade ediyor:
"Ortaya çıkacak fotonların sahip olması beklenen frekansların tam aralığını bilgi fiziğine dayanarak hesapladım. Bu deneyi mevcut araçlarımızla yapmak çok mümkün."

"Bitler, simülasyonun kodlarıdır"
Bu teoriyle birlikte bilginin maddenin 5. hali olduğunu öne süren Vopson, "Temel parçacık başına düşmesi beklenen bilgi içeriğini bile hesapladım. Deney protokolünü de buna dayandırdım" diyor:
"Simüle edilmiş bir evrenin, her yerde çok sayıda bilgi biti içereceğini varsaymak mantıklı. Bu bilgi bitleri simülasyonun kodlarını temsil eder. Dolayısıyla, bitlerin saptanması simülasyon hipotezini kanıtlayacaktır."
Vopson, bu teoriden hareketle yazdığı bir başka makalede, sosyal medyada paylaşılan her gönderinin ve atılan her mesajın da aslında Dünya'nın ağırlığını artırdığını öne sürmüştü.
Aynı deneyle iki düşünceyi de kanıtlayabileceğini söyleyen fizikçi, "Bir elektrondaki bilgi, onun kütlesinden 22 milyon kat küçüktür. Bilgiyi ancak elektronu silerek ölçebiliriz" demişti:
"Bir madde parçacığını bir anti-madde parçacığıyla çarpıştırdığınızda birbirlerini yok ederler. Bunu biliyoruz. Parçacık yok olduğunda bu bilgi bir yere gitmek zorunda."
 
Independent Türkçe, The Conversation, Futurism



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe