Ev hayvanınıza açılacak, davetsiz misafirleri dışarıda bırakacak kapı tasarlandı

Yüz tanıma teknolojisi köpek ve kedilere geldi

Firma, evcil hayvanın tanınması için kameraya doğrudan bakması gerekmediğini söylüyor (Petvention)
Firma, evcil hayvanın tanınması için kameraya doğrudan bakması gerekmediğini söylüyor (Petvention)
TT

Ev hayvanınıza açılacak, davetsiz misafirleri dışarıda bırakacak kapı tasarlandı

Firma, evcil hayvanın tanınması için kameraya doğrudan bakması gerekmediğini söylüyor (Petvention)
Firma, evcil hayvanın tanınması için kameraya doğrudan bakması gerekmediğini söylüyor (Petvention)

Çin merkezli bir teknoloji girişimi, insanlar arasında mahremiyet tartışmalarına neden olan yüz tanıma teknolojisini hayvanlara uyarladı.
Petvation adlı firma, yapay zeka ve mobil uygulama desteğiyle kedi ve köpek kapılarını "akıllı" hale getirdi.
Akıllı kapı sistemi, sahiplerinin yalnızca evcil köpek ve kedileri içeri almasına, istenmeyen ziyaretçileri dışarıda bırakmasına olanak tanıyor.
Bu istenmeyen ziyaretçiler, fareler, diğer köpek ve kediler ya da Avrupa veya Amerika ülkelerinde yaşayanlar için sincap, rakun veya tilkiler olabilir.
Firmanın geliştirdiği donanım kızılötesi kamera dizileri, kapının önündeki tüm aktiviteyi gözlemlemeye olanak tanıyan 120 derecelik lensler ve dahili gece görüş ışıklarını içeriyor.
Akıllı kapı ayrıca, tanımlanan hayvanın içeri girmesini, diğerlerinin dışarıda kalmasını sağlamak için küçük bir motor yardımıyla otomatik açılacak şekilde tasarlandı.
Böylelikle Petvation sistemi evcil kedi veya köpeği tanımlıyor ve kapıya açılması üzere komut veriyor.


Kapı, içeri veya dışarı hareket eden geleneksel kapıların aksine dikey olarak açılıp kapanıyor (Petvention)
Diğer yandan kullanıcıların bu sistemi manuel olarak kontrol etmesi de mümkün. Mobil uygulama sayesinde kullanıcılar, evcil hayvanlarına içeri giriş iznini kendileri de verebiliyor.
Firma, "evcil hayvanınızı tepeden tırnağa güvende tutmak" için çeşitli güvenlik mekanizmalarının kurulduğunu da ifade ediyor. Örneğin kapı üzerine kurulu sensörler hayvanları yaklaşırken veya kapıdan geçerken algılıyor ve takip ediyor.
Pençelerin veya kuyrukların kapıya sıkışmamasını sağlamak için de sıkışma önleyici bir mekanizma mevcut.
Öte yandan geliştiriciler, hayvan yüzlerini tanımlamanın insanları tanımlamaktan daha zor olduğunu kabul ediyor. Bu nedenle yapay zeka, hayvanın sadece yüzünü değil, tüm vücudunu tanımlayacak şekilde geliştirildi.
Sistem içeri bir kedinin mi yoksa bir köpeğin mi girmeye çalıştığını şimdiye kadar rahatça belirlemeyi başardı. Ancak aynı türden hayvanları kolayca ayırt edebilmesi için mühendisler ince ayar yapmayı sürdürüyor.
Sistemin yapay zeka modeli ve algoritmalarının daha doğru tanımlamalar yapabilmesi için zaman içinde sürekli iyileştirilmesi bekleniyor.
Independent Türkçe, Gizmodo, New Atlas



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging