Karınca kolonilerini kandıran sahte kraliçelerin sırrı çözüldü

Karınca kolonileri bazen "süperorganizmalar" olarak tanımlanıyor çünkü karıncalar tek bir vücut hâlinde koloniyi desteklemek için bir arada çalışıyor (Pixabay)
Karınca kolonileri bazen "süperorganizmalar" olarak tanımlanıyor çünkü karıncalar tek bir vücut hâlinde koloniyi desteklemek için bir arada çalışıyor (Pixabay)
TT

Karınca kolonilerini kandıran sahte kraliçelerin sırrı çözüldü

Karınca kolonileri bazen "süperorganizmalar" olarak tanımlanıyor çünkü karıncalar tek bir vücut hâlinde koloniyi desteklemek için bir arada çalışıyor (Pixabay)
Karınca kolonileri bazen "süperorganizmalar" olarak tanımlanıyor çünkü karıncalar tek bir vücut hâlinde koloniyi desteklemek için bir arada çalışıyor (Pixabay)

ABD'li bilim insanları çeşitli karınca türlerine sızarak onların üzerinden "geçinen" sahte kraliçe karıncalarınsırrını çözdü.
Rockefeller ve Harvard Üniversitelerinden araştırmacılar, parazit karıncalar diye adlandırılan bu sahte kraliçelerin genetik özelliklerini tespit etti.
Araştırmada incelenen akıncı karıncalar, sahte kraliçelerin, yani kraliçe gibi görünen asalakların musallat olduğu yaklaşık 50 tür arasında.
Bu asalak karıncalar koloninin yiyeceklerini yerken, kendileri yiyecek arama görevlerinden kaçınıyor. Üstelik ürediklerinde yumurtalarından işçi karıncalar değil, kendileri gibi asalak olanlar çıkıyor.
Şimdiye dek asalak karıncaların, normalde kraliçesi olmayan kolonilere dışarıdan sızdığı düşünülüyordu. 
Ancak hakemli bilimsel dergi Current Biology'de yayımlanan yeni araştırmada bunların akıncı karınca kolonilerinde kendiliğinden ortaya çıktığı görüldü.
Araştırmanın başyazarı Waring Trible, bulguları, "Karıncaların nasıl asalak hale geldiklerini anlamanın yeni bir yolu" diye nitelendirdi.
Ekip, akıncı karıncalar arasında hızla mutasyona uğrayan bir "süper-genin" bu asalakların görüntüsünü değiştirdiğini ve onları kraliçeye benzettiğini ortaya koydu.
Keşif, laboratuvardaki şaşırtıcı bir gözlemin ardından geldi. Trible ve ekibi, gözlemledikleri akıncı karınca kolonisi içinde sahte bir kraliçenin doğumuna tanıklık etti.
Dikkat çeken karıncayı koloninin geri kalanından ayırıp özel olarak inceleyen ekip, onun kanatlara sahip olduğunu gördü. Aynı durum başka kolonilerdeki asalaklarda da tespit edildi.
Kanatlar, birçok kraliçe karıncanın tipik özelliği. Ancak akıncı karıncaların normalde ne kanatları ne de kraliçeleri olmuyor.
Trible, "Bu kanatlı dişileri görmek şoke edici, çok çarpıcıydı" dedi:
“Hemen bunun genetik bir şey olduğunu düşündüm.”
Toplamda 10 bin karınca kolonisini inceleyen Trible ve meslektaşları, 14 sahtekar kraliçe buldu.
Bunların yavrularının da her zaman kanatlı asalaklar olduğu saptandı.
İleri analizler, sahtekar kraliçelerin mutasyona uğramış bir süper-genin iki kopyasını birden taşıdığını ortaya koydu.
Diğer karıncalar bunların yalnızca birer kopyasına sahip olabiliyordu.
Bu nedenle araştırmacılar, tespit ettikleri asalakları "mutant karınca" diye de niteliyor.
 
Independent Türkçe, Futurity, The New York Times



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging