Deepfake teknolojisi savaş görüntülerinin gerçekliğine olan güveni sarstı

Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)
Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)
TT

Deepfake teknolojisi savaş görüntülerinin gerçekliğine olan güveni sarstı

Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)
Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)

Deepfake teknolojisinin insanların savaş bölgelerinde çekilen fotoğrafların ve videoların gerçekliğine olan güvenini zayıflattığı ortaya koyuldu. Yapılan araştırma, görüntülere şüpheyle yaklaşıldığını gözler önüne serdi.

Deepfake teknolojisi, sahte dijital içerik oluşturmak için yüzleri, sesleri ve diğer özellikleri değiştirmelerine olanak tanıyan bir uygulama.

İngiliz Evening Standard gazetesinin haberine göre, ‘Propaganda Savaşında Yeni Bir Silah Türü’ başlıklı yeni çalışmada, 2022 yılının ilk yedi ayında X (eski adıyla Twitter) platformunda paylaşılan yaklaşık beş bin mesaj analiz edilerek, insanların Rusya-Ukrayna savaşıyla ilgili deepfake içeriklerle nasıl etkileşime geçtiği araştırıldı.

İrlanda'daki University College Cork'tan araştırmacılar, bu savaş sırasında video oyunlarının çatışma görüntüsü olarak kullanılması ve Rusya Devlet Başkanı Vladimir Putin'in Ukrayna ile barış ilan ettiğini gösteren sahte bir videonun yayınlanması gibi gerçek olmayan paylaşımlara dikkat çektiler.

Çalışma, söz konusu sahtekarlıkların çoğu sosyal medya kullanıcısının savaş ve çatışmaların tüm görüntülerine olan güvenini sarstığını ortaya koydu.

Araştırmaya göre insanların güvenilir basın ve medya kuruluşları tarafından yayınlanan fotoğraf ve videolara olan güveni azaldı.

Çalışma ayrıca sahte videolar hakkında farkındalık yaratma çabalarının, insanların sahte görüntüleri gerçeğinden ayırt edemeyebileceklerini düşünmeleri nedeniyle gerçek görüntülere olan güvenin azalmasına da yol açtığını gösterdi.

Avrupa Polis Teşkilatı (Europol) geçtiğimiz yıl deepfake teknolojisinin kullanımının yaygınlaştığı konusunda uyarıda bulundu.

Europol, insanların daha önce hiç söylemedikleri ya da yapmadıkları şeyleri söyleyerek ya da yaparak, hatta tamamen yeni kişilikler yaratarak internette görünür hale geldiklerini kaydetti. Bu teknolojinin yanlış ellere geçmesi halinde yıkıcı bir etkiye sahip olabileceğini vurgulandı.

Ayrıca yapılan açıklamalarda, dezenformasyonun ve görüntü sahtekarlıklarının yayılmasının, insanların otoriteye ve medyaya bakışını derinden etkileyeceğini belirtildi.

Şarku’l Avsat’ın edindiği bilgilere göre uzmanlar, bu durumun vatandaşların ortak bir gerçekliğe sahip olmamasına yol açmasından ya da toplumda hangi medya kuruluşlarına güvenilebileceği konusunda kafa karışıklığı yaratmasından endişeli. Bu durum bazen ‘bilgi dünyasının sonu’ ya da ‘gerçeğe karşı kayıtsızlık’ olarak adlandırılıyor.

Ajans, suçluların ayrıca deepfake teknolojisini kullanarak bireylere, özellikle de reşit olmayanlara çevrimiçi şantaj yapabileceğini, istismarda bulunabileceğini, sahte pornografik materyaller üretebileceğini ve adli soruşturmalarla ilgili elektronik kanıtları taklit ve manipüle edebileceğini vurguladı.



Amazon, yapay zekalı bileklik girişimini satın alıyor

Bee'nin giyilebilir cihazı, girişimin zamanla alışkanlıklarınızı, tercihleriniz ve ilişkilerinizi öğreneceğini söylediği kişisel bir yapay zeka içeriyor (Bee)
Bee'nin giyilebilir cihazı, girişimin zamanla alışkanlıklarınızı, tercihleriniz ve ilişkilerinizi öğreneceğini söylediği kişisel bir yapay zeka içeriyor (Bee)
TT

Amazon, yapay zekalı bileklik girişimini satın alıyor

Bee'nin giyilebilir cihazı, girişimin zamanla alışkanlıklarınızı, tercihleriniz ve ilişkilerinizi öğreneceğini söylediği kişisel bir yapay zeka içeriyor (Bee)
Bee'nin giyilebilir cihazı, girişimin zamanla alışkanlıklarınızı, tercihleriniz ve ilişkilerinizi öğreneceğini söylediği kişisel bir yapay zeka içeriyor (Bee)

Amazon, konuşmaları bileklikteki yapay zeka asistanla analiz eden bir giyilebilir teknoloji girişimini satın alma sürecinde.

San Francisco merkezli Bee, bu anlaşmanın "gerçekten kişisel, otonom yapay zekayı daha fazla müşteriye ulaştıracağını" belirterek, kullanıcılara günlerinin kişiselleştirilmiş özetlerini, hatırlatıcıları ve önerileri sunacağını söyledi.

Girişim, Fitbit benzeri bir cihazı geçen yıl piyasaya sürmüştü. Bu cihazın bilekliği 49,99 dolar, aylık aboneliğiyse 19 dolar.

Bee CEO'su Maria de Lourdes Zollo, salı günü Amazon'un bu girişimi satın alma planını doğrulasa da anlaşmanın değerini açıklamadı.

LinkedIn'de yayımladığı gönderide, "Bee'yi kurduğumuzda, yapay zekanın gerçekten kişisel olduğu, hayatınızın sizinle birlikte öğrenen teknoloji tarafından anlaşıldığı ve geliştirildiği bir dünya hayal ettik" diye yazdı.

İnanılmaz bir ekip ve toplulukla bir rüya olarak başlayan bu proje, artık Amazon'da yeni bir yuva buldu... Gerçekten kişisel, otonom yapay zekayı daha fazla müşteriye ulaştırmamıza yardımcı olacak daha iyi ortaklar düşünemiyorum.

The Independent, anlaşmanın ayrıntıları hakkında yorum almak için Amazon'la iletişime geçti.

Giyilebilir cihaz, kullanıcıların hafızalarını yapay zekayla güçlendirmesine olanak tanıyor ancak ürünün ilk incelemeleri, cihazın gerçek hayattaki konuşmaları internetteki videolar ve TV programlarıyla karıştırdığını gösteriyor.

Dahili mikrofonları kişisel konuşmaları kaydedebildiğinden, veri gizliliği konusunda da endişeler var.

Bee, ses kayıtlarını saklamayıp gerçek zamanlı işlediğini ve hemen ardından sildiğini iddia ediyor.

Şirketin internet sitesinde, "Amacımız, ham kişisel verilerinize erişim gerektirmeden Bee'yi daha akıllı hale getirmek" deniyor ve hiçbir verinin satılmadığı veya yapay zeka eğitimi için kullanılmadığı ekleniyor.

Amazon'un satın alma işleminden sonra bu gizlilik politikalarını sürdürmeyi planlayıp planlamadığı henüz belli değil ancak teknoloji devi daha önce kişilerin Ring güvenlik kameralarından elde edilen görüntüleri kullanıcıların izni olmadan kolluk kuvvetleriyle paylaşmıştı.

Independent Türkçe