Küçük bir hayvanın başka canlılardan çaldığı genlerle ilaç ürettiği keşfedildi

Yeni antibiyotikler geliştirilmesini sağlayabilir

Bdelloid rotiferler, Antarktika dahil dünyanın pek çok yerinde bulunuyor (C. G. Wilson)
Bdelloid rotiferler, Antarktika dahil dünyanın pek çok yerinde bulunuyor (C. G. Wilson)
TT

Küçük bir hayvanın başka canlılardan çaldığı genlerle ilaç ürettiği keşfedildi

Bdelloid rotiferler, Antarktika dahil dünyanın pek çok yerinde bulunuyor (C. G. Wilson)
Bdelloid rotiferler, Antarktika dahil dünyanın pek çok yerinde bulunuyor (C. G. Wilson)

Tek başına üreyen küçük bir hayvanın, başka canlılardan aldığı genler sayesinde enfeksiyonlarla savaştığı ortaya çıktı. Bilim insanları keşfin, insanlara yönelik yeni antibiyotikler geliştirilmesini sağlamasını umuyor. 

Tatlı sularda yaşayan bdelloid rotiferlerin döllenmeden ürediği düşünülüyor. Çok uzun zamandır varlıkları bilinmesine rağmen bugüne kadar bu hayvanların erkeği hiç görülmedi. Dişi rotiferler yumurta bırakarak kendilerini kopyalıyor. 

Genetik bilginin nesilden nesile değişmesi, türlerin hayatta kalması açısından kritik önem taşıdığı için döllenmeden üreyen rotiferlerin neslinin tükenmesi beklenebilir. Ancak bu canlılar en az 25 milyon yıldır yeryüzünde yaşıyor.  

Aralarında Oxford Üniversitesi'nden bilim insanlarının da yer aldığı bir ekip, bunun nasıl mümkün olduğunu çözmüş görünüyor: Bdelloid rotiferler, bakteri ve mantarlardan "çaldıkları" genlerle hastalıklara karşı savaşıyor. 

Daha önceki araştırmalarda rotiferlerin başka canlıların DNA'sını topladığı bulunsa da hakemli dergi Nature Communications'ta perşembe günü yayımlanan çalışmada bu genlerin hastalıklara karşı kullanıldığı keşfedildi. 

Başka yerlerden gelen genetik materyal, bdelloid rotifer genomunun yaklaşık yüzde 11'ini oluşturuyor. Araştırmacılar bazı genlerin, bakteri ve mantarların yanı sıra, bitkilerden alınmış gibi göründüğünü söylüyor. 

Bu aktarım, çoğunlukla virüsler aracılığıyla yatay gen transferi denen bir süreçle meydana geliyor. 

Bilim insanları mikroskobik canlıların bu genleri hangi amaçla kullandığını anlamak adına iki ayrı bdelloid rotifer türüne bir mantar enfeksiyonu verdi. Üç gün içinde bir türün en az yüzde 70'i, diğerininse sadece yüzde 18'i öldü.

Araştırmacılar dirençli hayvanlardaki antimikrobiyal kimyasallar üretmeyle ilişkili genlerin, çabuk ölen rotiferlerden 10 kat daha aktif olduğunu gözlemledi. 

Mantar ve bakteriler doğal yollarla antibiyotik üretirken, bilim insanları rotiferlerin de ödünç aldıkları genlerle aynı şeyi yaptığını düşünüyor. 

Oxford Üniversitesi'nden Chris Wilson, başyazarı olduğu araştırma hakkında "Bu tuhaf küçük hayvanlar, mikroplara nasıl antibiyotik yapacaklarını söyleyen DNA'yı kopyalamış" diye açıklıyor: 

Bir mantar hastalığına karşı bu genlerden birini kullanmalarını izledik ve enfeksiyondan kurtulan hayvanlar, ölenlere göre 10 kat daha fazla kimyasal reçete üretiyordu; bu da genlerin hastalığı bastırmayı sağladığına işaret ediyor.

Antibiyotik krizini çözebilir mi?

Modern tıbbın önemli bir parçası olan antibiyotikler, mikropların evrimleşip direnç kazanmasıyla etkilerini kaybediyor. Dünya Sağlık Örgütü bu mikropların yol açtığı hastalıklarla mücadelede yeni yöntemlerin geliştirilmesine acil ihtiyaç duyulduğunu belirtiyor. 

Yeni araştırmayı yürüten ekip, bdelloid rotiferlerin bu ihtiyacı giderme potansiyeli taşıdığı görüşünde. Rotiferlerin, hayvan olmayan canlılardan aldığı genler organizmaya girdikten sonra evrimleşiyor. 

Bilim insanları sözkonusu genler rotiferlerde yaşayabildiği için insanlar da dahil diğer hayvanlarda da zararsız olabileceğini düşünüyor.

Makalenin ortak yazarı David Mark Welch, "Bu karmaşık genlerin bazıları başka hiçbir hayvanda yok ve bunlar bakterilerden alınmış ancak rotiferlerde evrim geçirmiş" diyor. Araştırmacı bu durumun, bakteri ve mantarlardan geliştirilen ilaçlara kıyasla daha az zehirli olabilecek yeni antimikrobiyaller üretilme potansiyelini artırdığını söylüyor.

Öte yandan net bir şey söylemek için henüz çok erken. Fareler, insanlarla rotiferlerden daha yakın akraba olmasına karşın bu kemirgenlerde işe yarayan tedaviler insanlarda her zaman aynı sonucu vermiyor. 

Araştırmacılar yine de bulguların antibiyotik çalışmalarına katkı sağlamasını bekliyor. Wilson, rotiferlerin hastalıkla savaşmak adına ürettiği bileşikler hakkında  "Gerçekten çok zehirli olamazlar, yoksa kendi hücrelerinde üretemezlerdi" diyerek ekliyor: 

İnsanlarla uyumlu antimikrobiyal kimyasallara dair arayışımızda faydalı ipuçları veya kestirme yollar sunabileceklerini düşünüyoruz.

Independent Türkçe, Popular Science, Science Daily, Nature Communications



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe