Hindistan'ın tarihini değiştiren 'en eski hayvan fosili', çürüyen bir arı kovanı çıktı

"Daha yakından bakmak, izin günümüze ait bir arı kovanının çürümesinden kaynaklandığını gösteriyor"

Hindistan'da bulunan ve ilkel hayvan "Dickinsonia tenuis"a ait bir fosil olduğu söylenen şey, çürümüş bir arı kovanının bıraktığı iz çıktı (Avustralya Ulusal Üniversitesi)
Hindistan'da bulunan ve ilkel hayvan "Dickinsonia tenuis"a ait bir fosil olduğu söylenen şey, çürümüş bir arı kovanının bıraktığı iz çıktı (Avustralya Ulusal Üniversitesi)
TT

Hindistan'ın tarihini değiştiren 'en eski hayvan fosili', çürüyen bir arı kovanı çıktı

Hindistan'da bulunan ve ilkel hayvan "Dickinsonia tenuis"a ait bir fosil olduğu söylenen şey, çürümüş bir arı kovanının bıraktığı iz çıktı (Avustralya Ulusal Üniversitesi)
Hindistan'da bulunan ve ilkel hayvan "Dickinsonia tenuis"a ait bir fosil olduğu söylenen şey, çürümüş bir arı kovanının bıraktığı iz çıktı (Avustralya Ulusal Üniversitesi)

Yeni bir araştırmaya göre, 2020'deki 550 milyon yıllık nadir bir yaşam formuna dair sansasyonel "fosil" keşfinin "yanlış kimlik tespiti vakası" olduğu ortaya çıktı.
Hindistan'ın Bhopal kentindeki Bhimbetka Kaya Sığınakları mağara sahasında bulunan "fosilin" ilkel hayvan Dickinsonia tenuis'a ait olduğu ilan edilmişti.
Fakat yakın zamanda Gondwana Research bilimsel dergisinde yayımlanan yeni araştırmada, bunun sadece yakın zamanda çürümüş bir "dev arı kovanının" izi olduğunu bulundu.
2020 tarihli keşif de aynı bilimsel dergide yayımlanmıştı.
Bu keşif, Dünya'da yaşamış en eski hayvanlardan biri olan Dickinsonia'nın, Hindistan, Avustralya, Güney Amerika, Afrika ve Antarktika'nın tek bir kara parçası olduğu bir zamanda Hindistan alt kıtasında bulunduğunun kanıtı olarak geniş çapta haberleştirilmişti.
Daha önceki çalışmanın arkasındaki bilim insanları da Hindistan'daki bulgunun daha önce Güney Avustralya'da bulunan bir Dickinsonia tenuis fosiline benzediğini savunmuştu.
Böylece, süper kıta Gondvana'nın 550 milyon yıl önce birleşmiş olabileceği ve Dickinsonia'nın da benzer ılıman ve subtropikal enlemlerde mevcut olabileceği öne sürülmüştü.
The Independent'ta yer alan habere göre, aralarında Florida Üniversitesi'nden isimlerin de bulunduğu en son araştırmanın arkasındaki bilim insanları "Bulgu, The New York Times, The Weather Channel ve bilimsel dergi Nature'ın yanı sıra birçok Hint gazetesinin dikkatini çekti" diyor.
Yeni makalede bilim insanları "Aralık 2022'de bölgeyi ziyaret ettik ve Dickisonia için kanıtların yetersiz olduğunu bulduk" diye yazıyor.

"Retallack fosil toprakları çalışıyor ve bir süredir Ediacaran biota fosilinin hayvan değil, toprakta yaşayan toprak yosunu olduğunu savunuyor. Bu, onu büyük ölçüde toplulukla ters düşürüyor (kibarca söylemek gerekirse) 4/n
2021'de Retallack ve ekibi Hindistan'daki ilk Dickinsonia (Ediacaran'ın simgesi) kaydını "Güney Avustralya'daki Ediacara üyesinden Dickinsonia tenius'la birebir aynı" diyerek yayımladı. İşte burada 5/n"

Florida Üniversitesi'nde jeoloji profesörü olan ve yeni bulguların da arkasında bulunan Joseph Meert, yaptığı açıklamada şunları söyledi:
"Tamam, peki 550 milyon ya da bir milyar yaşında olsalar ne fark eder ki" diyebilirsiniz. Pekala, bunun birçok etkisi var.Bu etkilerden biri o zamanki paleocoğrafyayla; kıtalara ne olduğu, kıtaların nerede bulunduğu ve nasıl birleştikleriyle ilgili. Ve bu yaşamın, çok basit fosillerden daha karmaşık fosillere kadar büyük bir değişimden geçtiği bir dönemdi."
Dickinsonia
İlk başta bir Dickinsonia "fosili" (solda) gibi görünen şey çürümüştü ve sadece birkaç kısa yıl içinde kayadan soyulmaya başladı (sağda). Bu, onun günümüze çok daha yakın bir şey olduğunun işareti (Gregory Retallack/Joe Meert)
Florida Üniversitesi'nden bilim insanları, 2020 tarihli keşiften bu yana nesnenin "önemli derecede çürüdüğünün görüldüğünü" de söyledi, ki bu bir fosil için "epey sıradışı" bir şey.
Dr. Meert, "Fosil kayadan soyuluyordu" diye ekledi.
Bilim insanları, nesnenin daha ziyade "modern dev bal arısı kovanlarının çürümüş kısımlarını" andırdığına işaret etti.

"Üstüne üstlük, makalelerinin başlığında iki kelime oyunu yaptılar. İKİ! "İğneleyici Haber: 'Hindistan'daki Vindhya Dağları'nın yukarı bölgesinde bulunan 'Dickinsonia' için kopan vızıltı boşunaymış" OF! 
İşte tüm paleontologların ders alması gereken hikaye bu: Pareidolia, "belirli, genelde anlamlı bir görüntüyü gelişigüzel ya da belirsiz bir görsel örüntü olarak algılama eğilimi" 10/n"
Bilim insanları, "fosilin" bölgedeki kayanın bir parçası olmadığını, bunun yerine kayanın yüzeyinin üzerine "balmumuna benzer bir malzeme izi olarak yapıştığını" da buldu.
Orijinal çalışmadan elde edilen fotoğraflar, sözde "fosilin" içindeki "bal peteği yapılarını" ortaya çıkardı.
Bilim insanları, bunu araştırmalarında "Daha yakından bakmak, izin ilk bakışta Dickinsonia'ya benzeyen kırık bir kaya yüzeyine yapışmış, günümüze ait bir arı kovanının çürümesinden kaynaklandığını gösteriyor" diye açıklıyor.
Orijinal makalenin yazarları da en son bulgularla hemfikir oldu.
2020 tarihli makalenin yazarlarından, ABD'deki Oregon Üniversitesi'nden Gregory Retallack yaptığı açıklamada, "Yeni kanıtlar keşfedildiğinde bilim insanlarının hataları itiraf etmesi nadirdir ancak gereklidir" dedi.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe