Yapay zekanın hazırladığı seyahat planı viral oldu

İzleyenlerden biri, "Ağzım bu videoyu izlerken nasıl da açık kaldı" diye yorum yaptı

Pexels
Pexels
TT

Yapay zekanın hazırladığı seyahat planı viral oldu

Pexels
Pexels

Vietnam'ın Hanoi şehrine tek başına yapacağı seyahat için yapay zekadan 12 günlük bir yolculuk programı oluşturmasını isteyen Singapurlu bir kadın TikTok'ta viral oldu.
Mel diye bilinen 28 yaşındaki kadın, varış ve ayrılma tarihlerinin yanı sıra ziyaret etmek istediği Sa Pa ve Ha Long Koyu gibi birkaç bölgeyi girdi ve yapay zeka hızlıca tam 12 günlük bir program hazırladı.
Mel'in "ChatGPT çöktüğü" için kullandığı Notion AI, Eski Mahalle'yi keşfetmenin ve Hoan Liem Gölü'nü ziyaret etmenin de aralarında yer aldığı önerileriyle, bölgedeki ilgi gören popüler yerleri seçti. Yapay zeka uygulaması restoran önerip seyahat ve check-in vakitlerini de hesapladı.
Yapay zekanın listeyi üretme hızına bazı sosyal medya kullanıcıları şaşkınlıkla bakakalırken, onlara kıyasla şahin gözlü olan diğer kullanıcılar bazı hatalar tespit etti.
Örneğin Notion AI 11. günde Mel'e Hanoi sahilinin yaklaşık 800 km aşağısındaki Ba Na Tepeleri'ni ziyaret etmesini öneriyor.

@what.mel Well, thanks? @notionhq #notionai ♬ BO$$ CHICK - Saweetie

Buna rağmen Mel nihai sonuçtan etkilendi.
Mel, AsiaOne'a "[Aracın] bir programı gün gün planlamasına gerçekten şaşırdım" dedi.
Diğer sosyal medya kullanıcıları da Mel'in şaşkınlığını paylaştı.
Bir kullanıcı "Bu gerçek olamaz, gezi programı gerçek mi?" diye yazarken, başka biri de "Ağzım bu videoyu izlerken nasıl da açık kaldı" dedi.
Üçüncü bir kişiyse şöyle yanıtladı:
"Bu aslında yapay zekanın üretebileceği en kolay şeylerden biri çünkü zaten internetten çekebileceği çok fazla tatil planı var."
Bazı kullanıcılar da kendi yolculuk programlarını belirlemek için yapay zeka araçlarını kullandığını belirtirken, sonuçlar karışıktı.
Bir kullanıcı, "Erkek arkadaşım ve ben bunu sahil şeridi boyunca bir Oregon gezisi planlamak için kullandık ve yapay zeka bize çok iyi bir yolculuk programı verdi" diye yazdı.

"Programı kullandık ve harikaydı."

Bir başkasıysa "Bunu kullandım ama bilgilerin çoğunda zamanlama hatası vardı" diye yazdı.

"Mutlaka kendiniz de kontrol edin."

Yapay zeka teknolojisinin yetenekleriyle ilgili çok şey söylense de The Independent'ın aracın doğruluğunu test etmeye adadığı bir çalışmasında tespit ettiği gibi, sonuçlara temkinli yaklaşmak iyi olur.
The Independent, ChatGPT'den York ve Londra için seyahat tavsiyesi istedi ve program her iki seferde de halihazırda kapalı olan restoran ve gece kulüpleri hakkında yanlış bilgilerle döndü.
İnsan eli değmesinin değerini vurgulayan bir bir kullanıcı da diğer kullanıcıların yorumlarda paylaştığı kişisel önerilerin sayısını belirterek şöyle yazdı:
"Asıl yolculuk programı yorumlarda. TikTok bir kez daha sihrini yapıyor."



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging