Bilim insanları yarısı alınan beynin kendini yeniden yapılandırdığını keşfetti

Araştırmacılar, beyinlerinin yarısı alınmış kişilerin, kalan ağlar kaybı telafi etmek için çalıştığı için "önemli derecede yüksek işlevli" olduğunu keşfetti (Reuters)
Araştırmacılar, beyinlerinin yarısı alınmış kişilerin, kalan ağlar kaybı telafi etmek için çalıştığı için "önemli derecede yüksek işlevli" olduğunu keşfetti (Reuters)
TT

Bilim insanları yarısı alınan beynin kendini yeniden yapılandırdığını keşfetti

Araştırmacılar, beyinlerinin yarısı alınmış kişilerin, kalan ağlar kaybı telafi etmek için çalıştığı için "önemli derecede yüksek işlevli" olduğunu keşfetti (Reuters)
Araştırmacılar, beyinlerinin yarısı alınmış kişilerin, kalan ağlar kaybı telafi etmek için çalıştığı için "önemli derecede yüksek işlevli" olduğunu keşfetti (Reuters)

Çocukluk döneminde beyninin yarısı alınmış yetişkinleri inceleyen bilim insanları, beynin geri kalan yarısının kendini yeniden yapılandırdığını keşfetti.
Buna göre beyin geri kalan fonksiyonel beyin ağları arasında görülmemiş derecede güçlü bağlar kuruyor ve böylece kişinin beyni bütünmüş gibi işlev görmesini yardım ediyor. 
Çalışma epilepsi nöbetlerini azaltmak amacıyla çocukken hemisferektomi ameliyatı olmuş 6 yetişkin ve 6 kontrol katılımcısıyla gerçekleşti.
12 katılımcının her birinden fonksiyonel manyetik rezonans görüntüleme (fMRI) tarayıcısına uzanması istendi.
Tarayıcı kan akışına bağlı değişiklikleri tespit ederek beyin aktivitesini ölçüyor.
Bu teknik beyindeki kan akışı ve sinirsel aktivitenin doğrudan birbirine bağlı olduğu gerçeğine dayanıyor. Beynin bir bölgesi kullanılırken o bölgeye kan akışı da aynı şekilde artıyor.
Hareketsiz duran katılımcılara araştırmacılar spontane beyin aktivitesini takip ederken uyumamaya çalışmaları söylendi.
Independent Türkçe'de yer alan habere göre, araştırma ekibi görme, hareket, duygu ve kavrama gibi süreçleri kontrol etmesiyle bilinen beyin bölge ağlarını inceledi.
Ayrıca Caltech Beyin Görüntüleme Merkezi'nde toplanan verileri, Brain Genomics Superstruct Projesi'nin yaklaşık bin 500 normal beyine ilişkin veritabanıyla karşılaştırdılar. Brain Genomics Superstruct Projesi, bilim insanlarının beyin fonksiyonu, davranış ve genetik çeşitlilikle ilgili verileri karşılaştırması ve araştırması için tasarlanmış bir proje olarak biliniyor.
Ekip normal beyne sahip insanlardaki ağlar beynin iki yarım küresini de kapladığı için tek yarım küreye sahip katılımcıların belli ağlarında daha zayıf bağlantılar bulacaklarını düşünüyordu.
Bunun yerine şaşırtıcı derecede normal küresel bağlantı ve kontrol katılımcılarının farklı ağlar arasındaki bağlantılarından daha güçlü bağlantılar buldular.
Kaliforniya Teknoloji Enstitüsü'ndeki doktora sonrası bilim insanı ve birinci yazar Dorit Kliemann şunları söyledi:
İncelediğimiz hemisferektomili insanlar önemli derecede yüksek işlevliydi. Dil becerileri bozulmamıştı. Onları tarayıcıya yerleştirdiğimde tıpkı taradığım yüzlerce başka kişiyle yaptığım gibi havadan sudan konuştuk. (...) Onlarla ilk kez karşılaştığınızda sağlık durumlarını unutabilirsiniz bile. Bilgisayarın önüne oturup MRI görüntülerinin beynin sadece yarısını gösterdiğini gördüğümde dahi bu görüntülerin daha az önce konuştuğunu, yürüdüğünü gördüğüm ve zamanını bu araştırmaya vakfetmeyi seçen aynı insandan geldiğine hayret ediyordum.
6 katılımcının tamamı çalışma sırasında 20'li yaşlarında veya 30'lu yaşlarının başındaydı ama hemisferektomi olduklarında yaşları üç aylıkla 11 yaş arasında değişiyordu.
Ameliyat geçirdikleri yaşların geniş aralığı, araştırmacıların beynin hasar gördüğünde kendini nasıl yeniden düzenlediğini incelemesine izin verdi.
Kliemann, “Bu farklı hemisferektomi hastalarının vakalarında beyin organizasyonunun nasıl mümkün olduğunu incelememize yardım edebilir ki böylece genel beyin mekanizmalarını daha iyi anlayabiliriz” dedi.
Üst düzey araştırmacı bilim insanı ve baş araştırmacı Lynn Paul'un idaresindeki Caltech'teki hemisferektomi araştırma programı, çeşitli beyin atipikliğine sahip kişilerde beynin nasıl geliştiğini, kendini düzenlediğini ve işlediğini daha iyi anlamak için çalışmayı genişletmeyi umuyor.
Kliemann sözlerini şöyle sürdürdü:
Yarım beyinle yaşayabilen kişilerin olması ne kadar dikkate değer bir durum olsa da bazen inme veya bir bisiklet kazasında alınan travmatik bir beyin hasarı veya tümör gibi çok küçük beyin lezyonlarının mahvedici etkileri olabiliyor. Kompensasyona götürebilecek beyin yeniden yapılanma ilkelerini anlamaya çalışıyoruz. Belki de gelecekte bu çalışma beyin hasarı olan daha çok kişiye yardım etmek için hedefe yönelik müdahale stratejilerini ve farklı sonuçlara dair senaryoları bilgilendirebilir.
Bu vaka çalışması Cell Reports adlı bilimsel yayında yer alıyor.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe