Nörologlar "Beyin kendini yeniden yapılandırıyor" kabulüne karşı çıktı

"Biz bilim insanıyız, sihre inanmıyoruz"

Bilim insanları, beynin kendini yeniden yapılandırdığına dair yaygın kabullerin doğruluğunu kanıtlayan hiçbir sonuç bulamadıklarını ifade etti (Unsplash)
Bilim insanları, beynin kendini yeniden yapılandırdığına dair yaygın kabullerin doğruluğunu kanıtlayan hiçbir sonuç bulamadıklarını ifade etti (Unsplash)
TT

Nörologlar "Beyin kendini yeniden yapılandırıyor" kabulüne karşı çıktı

Bilim insanları, beynin kendini yeniden yapılandırdığına dair yaygın kabullerin doğruluğunu kanıtlayan hiçbir sonuç bulamadıklarını ifade etti (Unsplash)
Bilim insanları, beynin kendini yeniden yapılandırdığına dair yaygın kabullerin doğruluğunu kanıtlayan hiçbir sonuç bulamadıklarını ifade etti (Unsplash)

ABD'li ve Britanyalı bilim insanlarından oluşan uluslararası bir ekip, yaygın kanının aksine görme kaybı, ampütasyon ya da felç sonrasında beynin kendini yeniden yapılandırma yeteneğine sahip olmadığını öne sürdü.

Birleşik Krallık'taki Cambridge Üniversitesi'nden nörolog Prof. Tamar Makin ve ABD'de Johns Hopkins Üniversitesi'nden John Krakuer'in konuyla ilgili araştırmaları, 21 Kasım'da hakemli bilimsel dergi eLife'da yayımlandı.

Çalışmaya göre bilim insanları, beynin herhangi bir yaralanma ya da tıbbi duruma reaksiyon olarak kendini yeniden yapılandıracağına dair genel kabulün temelden kusurlu olduğunu savunuyor.

Bilim insanları, bunun yerine beynin halihazırda var olan ancak gizli olan yetenekleri ortaya çıkardığını öne sürüyor. 

Bilimsel yayınlarda sık sık dile getiriliyor

Bilimsel ders kitaplarında beynin bazı bölgelerinin yeni işlevler için kendini yeniden yapılandırdığı sık sık dile getirilir. 

Örneğin birçok kişi, bir kişi görme yeteneğini kaybettiğinde beynin, sesleri işleyecek şekilde görsel korteksi yeniden yapılandırabildiği ve bu sayede yön bulmayı kolaylaştırdığına inanıyor. 

Buna insanların cisimlerden gelen yankıları hissedip o cisimleri tespit etmesini sağlayan ekolokasyon kabiliyeti deniyor. 

Araştırmada bu duruma bir başka örnek olarak, felç geçiren bir kişinin başlangıçta uzuvlarını hareket ettiremediği zaman beynin bazı kısımlarının kendini düzenleyerek kontrolü yeniden kazandığı fikri gösteriliyor. 

Yeni yetenekler mucize değil, her zaman oradaydı

Krauker, insan beyninin kendini yeniden yapılandırma ve düzenleme konusunda müthiş bir yeteneğe sahip olduğu fikrinin çok çekici olduğunu dile getirdi ve ekledi: 

Özellikle de körlerin neredeyse insanüstü ekolokasyon yeteneği geliştirdiğine ya da felç geçirenlerin kaybettikleri motor becerilerini mucizevi bir şekilde geri kazandıklarına dair hikayeler umut veriyor.

Bu düşüncenin basit bir uyum sağlama ya da plastisitenin (beynin yapısal veya fizyolojik değişikliklere uğrama yeteneği) ötesine geçtiğini aktaran Krauker, "Bu, beyindeki bölgelerin komple yeniden tasarlanması anlamına geliyor. Bu hikayeler doğru olsa bile, aslında orada olan biten yanlış açıklanıyor" dedi. 

Daha önce yapılan çalışmalar, beynin uyum sağlama yeteneğine sahip olduğunu gösteriyor. 

Fakat Makin ve Krauker, beynin daha önce öne sürüldüğü gibi aktif olarak yeni işlevler yaratmadığını, kullanılan alanların aslında doğumdan beri var olduğunu söyledi. 

Daha önceki araştırmalar da incelendi

1980'lerde yapılan bir çalışmada, parmak ampütasyonun vücuda etkisi incelendi. 

Araştırmaya göre beynin daha önce parmağa verdiği uyarının parmak kesildikten sonra yeniden görüldüğünü belirtti. 

Ekip, bunun beynin değişime tepki olarak kendini nasıl yeniden yapılandırdığını gösterdiğini savundu.

Fakat Prof. Makin 2022'de yaptığı bir çalışmada bu durumun böyle olmayacağına dair kanıtlar ortaya koymuştu. 

İşaret parmağının kesilmesinin etkisini geçici olarak taklit etmek için sinir engelleyicileri kullandı.

Makin, ampütasyondan önce, diğer parmaklardan gelen sinyallerin beynin işaret parmağından sorumlu olduğu söylenen bölgesiyle eşleştiğini gördü. 

Buna göre beynin bu bölgesinin ilk olarak işaret parmağından gelen sinyalleri işlediği ancak bunu tek başına yapmadığı ortaya kondu. 

Çalışmada, simülasyonun ardından, diğer parmaklardan gelen mevcut sinyallerin de arttığı görüldü. 

Bu bölgelerde yeni bilgilerin baştan ortaya çıkmadığını belirten Makin, "Beynin incelenen bu bölgesinde diğer parmaklara ilişkin yetenekler ampütasyondan önce de vardı" dedi.

Bilim insanları makalelerinde, kendi araştırmalarının yanı sıra başka çalışmaları da inceleyerek yaygın kabullerin doğru olduğunu kanıtlayan hiçbir sonucun olmadığını belirtti. 

"Bizler bilim insanıyız, sihre inanmıyoruz" diyen Makin, beynin belli işlevleri yerine getirmek için temelden bu yeteneklere sahip olduğunu belirtiyor. 

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe