Teknoloji yarışı beyne taşındı, hedef; düşünceleri harekete geçirmek

Elon Musk'ın beyin çipi geliştiren şirketi Neuralink ile Bill Gates ve Jeff Bezos'un yatırımcıları olduğu Synchron'un çalışmalarıyla felçli hastaların düşünceleriyle aktiviteler yapmasını hedefleyen beyin çipi teknolojisinde yarış hızlanıyor.

Teknoloji yarışı beyne taşındı, hedef; düşünceleri harekete geçirmek
TT

Teknoloji yarışı beyne taşındı, hedef; düşünceleri harekete geçirmek

Teknoloji yarışı beyne taşındı, hedef; düşünceleri harekete geçirmek

Neuralink'in beyin çipi yerleştirilen felçli hasta Noland Arbaugh'un satranç oynadığı anları X'teki canlı yayınında paylaşmasıyla çip teknolojisinde gelinen son nokta, tüm dünyada geniş yankı uyandırdı.

Musk ve bir grup nörolog tarafından 2016'da kurulan Neuralink, beyne yerleştirilecek mikroçipler sayesinde felç ve körlük gibi nörolojik rahatsızlıkları tedavi etmeyi ve engelli kişilerin hayat kalitesini artırmayı hedefliyor.

Neuralink projesi adım adım ilerledi

Proje kapsamında şirket, insan beynine bir madeni para büyüklüğünde çip yerleştiriyor. Saç telinden 20 kat daha ince teller vasıtasıyla beyinle bağlantı kuran bu çiple beyinsel aktiviteler izlenerek araştırmacıların kullanabileceği bilgisayarlara aktarılabiliyor.

Neuralink çalışmalarında en büyük gelişmelerden biri 2020 yılında yaşandı. Musk, 2020 yılında sosyal medya adresinden yaptığı bir paylaşımda çipin Gertrude adı verilen bir domuzun beynine yerleştirildiğini söylemişti. Bu operasyon sonucunda Gertrude'un beyinsel aktiviteleri çip aracılığıyla takip edilebilmişti.

2021 yılında şirket, çalışmalarını bir adım daha öteye götürerek çiple Pager isimli bir maymun üzerinde deney yaptı. Pager beyin sinyalleri yardımıyla bilgisayar oyunu oynayarak tüm dünyanın ilgisini çekmeyi başarmıştı.

Musk'ın çipleri ilk defa insan beyninde

Şirket için en büyük kırılmalardan biri de çiplerin insanlar üzerinde kullanımına izin veren onayın alınması oldu.

Neuralink, çiplerin 2023 yılında insanlar üzerinde denenmesine başlanması için ABD Gıda ve İlaç İdaresinden (FDA) onay aldığını duyurdu.

2024'ün mart ayına gelindiğinde ise insan deneylerinde bugüne kadarki en büyük gelişme yaşandı. 8 yıl önce kaza geçirdikten sonra elleri ve ayakları felç kalan Arbaugh, beynine yerleştirilen çip sayesinde satranç oynamayı başardı.

Neuralink, hastanın satranç oynadığı anları X sosyal medya platformundaki canlı yayınında paylaştı. Videoda, Arbaugh'un düşünce yoluyla dizüstü bilgisayarının imlecini hareket ettirdiği ve satranç oynadığı görülüyor.

Beyin çiplerine uzanan gelişmelerin tarihçesi

Beyin-bilgisayar teknolojilerine dair gelişmeler son yıllarda hızını artırsa da bu alandaki çalışmalar geçmişe uzanıyor.

İtalyan fizikçi ve biyolog Luigi Galvani, 1780 yılında ölü kurbağaların kaslarının bir elektrik kıvılcımı kullanılarak uyarılabileceğini keşfetti. Alman nörolog Edward Hitzig ve Alman fizyolog Gustav Fritsch ise 1870'te bir köpeğin beyninin belirli bölümlerinin elektriksel olarak uyarılması yoluyla kas hareketlerine neden oldu.

1874'te de ABD'li doktor Roberts Bartholow, kafasında delik olan bir kadının beyninde elektriksel uyarıyla deneyler gerçekleştirdi.

1924 yılında ise önemli bir gelişme yaşandı ve Alman psikiyatr Hanns Berger ilk kez insan beynindeki elektriksel aktiviteyi kaydetmek için elektroensefalografiyi (EEG) kullandı. Berger'in geliştirdiği EEG, beyinde bulunan sinir hücrelerinin ürettiği elektriksel dalgaları kaydetti. Berger'in beyin dalgalarından alfa dalgasının da kaşifi olması nedeniyle bu dalga Berger Dalgası olarak da isimlendirildi.

Felçli hastaların hayat kalitesini yükseltmeyi hedefliyor

1969 yılında ses hissini yeniden sağlamak ve sinirsel implantların olanaklarını ortaya koymak amacıyla ilk biyonik kulak uygulaması yapıldı.

1996'da felçli bir hastaya, bilgisayar imlecini kontrol etmesini sağlayan nörotrofik elektrotlar yerleştirildi. 2004 yılında beyin-bilgisayar teknolojilerinin geliştirilmesine odaklanan BrainGate araştırma programı kapsamında, felçli bir hastanın beynine yerleştirilen çip ile robot kolu hareket ettirmesi sağlandı.

Beyin çipleriyle ilgili çalışmalar, Elon Musk'ın 2016'da Neuralink'i kurmasıyla daha fazla gündeme gelmeye başladı.

Felçli Noland Arbaugh'un beyin çipiyle çeşitli aktiviteler yapmasını sağlayan Neuralink, bu alandaki çalışmalarını hızla devam ettiriyor.

Gates ve Bezos'un desteklediği şirket çalışmalarını sürdürüyor

Teknolojinin diğer alanlarındaki rekabet, beyin-bilgisayar teknolojilerinde de yaşanıyor. Microsoft'un kurucusu Bill Gates ile Amazon'un kurucusu Jeff Bezos'un yatırımcıları arasında yer aldığı ABD merkezli Synchron şirketi de nöroteknoloji alanında çalışmalar yürütüyor.

Synchron, düşünceyle çeşitli aktivitelerin yapılmasını sağlamak amacıyla geliştirdiği beyin implantlarını birçok hastaya yerleştirdi. Şirket, geniş çaplı bir deney için hazırlıklarını sürdürüyor.

Uzmanların bir kısmı bu alanda yapılan çalışmaların ileri seviyede olmasa da önemli olduğunu belirtirken, bazı uzmanlar ise geliştirilen beyin çiplerinin uygulanmasında yaşanacak problemlere işaret ederek şirketlerin bu alanda nihai bir ürün ortaya koymaktan uzak olduğunu ifade ediyor.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe