Ölü örümceklerden yapılan robotlar ve "akıllı tuvaletler" Ig Nobel Ödülleri'ne damgasını vurdu

Kazanan takımlar Zimbabve'den 10 trilyon dolarlık bir banknot ve kupa aldı

Seung-min Park, Stanford Üniversitesi'nde Akıllı Sağlık Hizmeti tuvaletini kullanıyor (Ig Nobel/Seung-min Park/Stanford Üniversitesi)
Seung-min Park, Stanford Üniversitesi'nde Akıllı Sağlık Hizmeti tuvaletini kullanıyor (Ig Nobel/Seung-min Park/Stanford Üniversitesi)
TT

Ölü örümceklerden yapılan robotlar ve "akıllı tuvaletler" Ig Nobel Ödülleri'ne damgasını vurdu

Seung-min Park, Stanford Üniversitesi'nde Akıllı Sağlık Hizmeti tuvaletini kullanıyor (Ig Nobel/Seung-min Park/Stanford Üniversitesi)
Seung-min Park, Stanford Üniversitesi'nde Akıllı Sağlık Hizmeti tuvaletini kullanıyor (Ig Nobel/Seung-min Park/Stanford Üniversitesi)

Ölü örümceklerin "nekrobot" adı verilen robot pençelere dönüştürülmesi üzerine yapılan araştırma ve kişiyi "anal izinden" tanıyan "akıllı" tuvalet buluşu, bu yılın Ig Nobel Ödülü'nün sahipleri arasında yer alıyor.

Ig Nobel Ödülleri her yıl eylülde, "önce güldüren, sonra düşündüren" enteresan bilimsel çalışmalara ve başarılara veriliyor. Ödül törenini her yıl bilimsel mizah dergisi Annals of Improbable Research düzenliyor.

Geçen yıl içinde yürütülen ve 2023 Ig Nobel Ödülü'nü alan araştırmalardan bazıları arasında bilim insanlarının mekanik kavrama araçları olarak kullanmak üzere ölü örümcekleri yeniden canlandırdığı bir araştırma ve birçok jeoloğun üzerinde çalıştığı kayaları yalamak gibi tuhaf bir davranış sergilemesinin nedenini açıklayan bir çalışma yer alıyordu.

Bu yıl halk sağlığı kategorisinin ödülü, çeşitli teknolojiler kullanarak kullanıcının dışkıladığı maddeleri izleyip hızlıca analiz eden bir "akıllı" tuvalet icat eden araştırmacılara verildi.

Stanford Üniversitesi'nden bilim insanlarının bu ilginç buluşunda idrar analiz stribi ve dışkılama analizi için bilgisayarlı görü sistemi gibi parçaların yanı sıra diğer cihazların olduğu bir arayüz bulunuyor.

"Akıllı" tuvalet diye adlandırılan bu icat aynı zamanda parmak izi gibi bir "anal iz" üretmek için kişinin anüsünün iç dokusundaki kırışıklıkları inceleyen bir tanımlama kamerasıyla eşleştirilmiş sensöre de sahip.

Tuvaleti yapan ekipte yer alan Stanford'dan Seung-min Park, Associated Press'e şöyle dedi:

Genelde en mahrem alanlar olarak görülen tuvaletlerimiz, sağlığımızın sessiz koruyucuları olma potansiyeline sahip.

Leicester Üniversitesi'nde jeolog olan Jan Zalasiewicz, bilim insanlarının kayaları neden yaladığını açıklayan çalışmasıyla bu yılki kimya ve jeoloji kategorisinin ödülünü kazandı.

Jeolog, 2017'de Paleontoloji Derneği'nin bültenine yazdığı makalesinde, kayaların içindeki minerallerin, ıslak yüzeylerde kuru yüzeylere göre daha iyi öne plana çıkma eğilimi gösterdiğini ve taşları yalamanın bunları sahada daha kolay tanımlamayı sağlayan bir yol sunduğunu açıklamıştı.

Rice Üniversitesi'nden makine mühendisleri, ölmüş örümceklerin vücutlarını nekrobotik kıskaçlara dönüştürmenin yolunu buldu (Rice Üniversitesi)​​​​​​​
Rice Üniversitesi'nden makine mühendisleri, ölmüş örümceklerin vücutlarını nekrobotik kıskaçlara dönüştürmenin yolunu buldu (Rice Üniversitesi)

Yoldan geçenler arasında kaç kişinin, yukarı bakan yabancıları görünce durup yukarı baktığını inceleyen tuhaf bir sokak deneyi de psikoloji kategorisi ödülünü kazandı.

Bilim insanlarına göre bu araştırma, "farklı büyüklükteki kalabalıkların çekim gücünü" tahmin etmeye yönelik bir girişimdi.

Çalışmada, "uyarıcı kalabalığın boyutu arttıkça yoldan geçenlerin daha büyük bir kısmının kalabalığın davranışını benimsediği" tespit edildi.

Beslenme kategorisi ödülüyse, "yiyeceklerin tadını değiştirme" potansiyeline sahip "elektrikli" yemek çubukları ve pipet buluşunu sunan araştırmacılara gitti.

Tıp ödülünü kadavraları kullanarak bir kişinin iki burun deliğinin her birinde eşit sayıda kıl olup olmadığını araştıran bilim insanları kazanırken, eğitim bölümündeki ödül öğretmenlerin ve öğrencilerin can sıkıntısını inceleyen ekibe verildi.

Eğitim kategorisindeki deneyi yürüten Essex Üniversitesi'nden Sosyolog Wijnand Van Tilburg, bu çalışmanın "derslerin sıkıcı olacağı beklentisinin, öğrencilerin sıkılmasına tek başına yettiğini" gösterdiğini söyledi.

Tersten konuşma becerisine sahip kişilerin beynini inceleyen uluslararası ekipse iletişim ödülünü kazandı.

Araştırmada incelenen deneklerden bazıları uzunluğu 12 kelimeye kadar varan cümleleri hızla tersine çevirebiliyordu.

Advanced Science adlı bilimsel dergide yayımlanan ve ölü örümceklerin bedenleri kullanılarak yapılan robotların, örümceğimsilerin ağırlığından daha büyük nesneleri kavramayı sağlayabileceğini gösteren araştırma da makine mühendisliği ödülünü kazandı.

Bilim insanları "nekrobotların", robotikte yeni bir çağın kapılarını açabileceğini söylüyor.

Her yıl olduğu gibi bütün kategorilerdeki kazanan takımlara kupanın yanı sıra Zimbabve'nin 10 trilyon dolarlık banknotu verildi.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe