Deepfake teknolojisi savaş görüntülerinin gerçekliğine olan güveni sarstı

Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)
Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)
TT

Deepfake teknolojisi savaş görüntülerinin gerçekliğine olan güveni sarstı

Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)
Deepfake teknolojisi, sosyal medya kullanıcılarının fotoğraflara ve videolara şüphe ile yaklaşmasına neden oluyor. (Reuters)

Deepfake teknolojisinin insanların savaş bölgelerinde çekilen fotoğrafların ve videoların gerçekliğine olan güvenini zayıflattığı ortaya koyuldu. Yapılan araştırma, görüntülere şüpheyle yaklaşıldığını gözler önüne serdi.

Deepfake teknolojisi, sahte dijital içerik oluşturmak için yüzleri, sesleri ve diğer özellikleri değiştirmelerine olanak tanıyan bir uygulama.

İngiliz Evening Standard gazetesinin haberine göre, ‘Propaganda Savaşında Yeni Bir Silah Türü’ başlıklı yeni çalışmada, 2022 yılının ilk yedi ayında X (eski adıyla Twitter) platformunda paylaşılan yaklaşık beş bin mesaj analiz edilerek, insanların Rusya-Ukrayna savaşıyla ilgili deepfake içeriklerle nasıl etkileşime geçtiği araştırıldı.

İrlanda'daki University College Cork'tan araştırmacılar, bu savaş sırasında video oyunlarının çatışma görüntüsü olarak kullanılması ve Rusya Devlet Başkanı Vladimir Putin'in Ukrayna ile barış ilan ettiğini gösteren sahte bir videonun yayınlanması gibi gerçek olmayan paylaşımlara dikkat çektiler.

Çalışma, söz konusu sahtekarlıkların çoğu sosyal medya kullanıcısının savaş ve çatışmaların tüm görüntülerine olan güvenini sarstığını ortaya koydu.

Araştırmaya göre insanların güvenilir basın ve medya kuruluşları tarafından yayınlanan fotoğraf ve videolara olan güveni azaldı.

Çalışma ayrıca sahte videolar hakkında farkındalık yaratma çabalarının, insanların sahte görüntüleri gerçeğinden ayırt edemeyebileceklerini düşünmeleri nedeniyle gerçek görüntülere olan güvenin azalmasına da yol açtığını gösterdi.

Avrupa Polis Teşkilatı (Europol) geçtiğimiz yıl deepfake teknolojisinin kullanımının yaygınlaştığı konusunda uyarıda bulundu.

Europol, insanların daha önce hiç söylemedikleri ya da yapmadıkları şeyleri söyleyerek ya da yaparak, hatta tamamen yeni kişilikler yaratarak internette görünür hale geldiklerini kaydetti. Bu teknolojinin yanlış ellere geçmesi halinde yıkıcı bir etkiye sahip olabileceğini vurgulandı.

Ayrıca yapılan açıklamalarda, dezenformasyonun ve görüntü sahtekarlıklarının yayılmasının, insanların otoriteye ve medyaya bakışını derinden etkileyeceğini belirtildi.

Şarku’l Avsat’ın edindiği bilgilere göre uzmanlar, bu durumun vatandaşların ortak bir gerçekliğe sahip olmamasına yol açmasından ya da toplumda hangi medya kuruluşlarına güvenilebileceği konusunda kafa karışıklığı yaratmasından endişeli. Bu durum bazen ‘bilgi dünyasının sonu’ ya da ‘gerçeğe karşı kayıtsızlık’ olarak adlandırılıyor.

Ajans, suçluların ayrıca deepfake teknolojisini kullanarak bireylere, özellikle de reşit olmayanlara çevrimiçi şantaj yapabileceğini, istismarda bulunabileceğini, sahte pornografik materyaller üretebileceğini ve adli soruşturmalarla ilgili elektronik kanıtları taklit ve manipüle edebileceğini vurguladı.



ChatGPT'ye akıl sağlığı önlemleri geldi

Fotoğraf: AP
Fotoğraf: AP
TT

ChatGPT'ye akıl sağlığı önlemleri geldi

Fotoğraf: AP
Fotoğraf: AP

ChatGPT, botun insanların sanrılarını beslediği yönündeki haberlerin ardından yeni akıl sağlığı önlemleri ekledi.

Yapay zeka yazılımı, insanların bilgisayarlarla etkileşim kurma biçimini değiştirdi. Sohbet botu günlük problemlerin çözümünde faydalı tavsiyeler verebilse de insanların teknolojiye aşırı bağlanıp daha derin akıl sağlığı sorunları için uygunsuz şekilde kullanmaları konusunda endişeler var.

The Independent, yakın zamanda ChatGPT'nin insanları maniye, psikoza ve ölüme nasıl sürüklediğini aktarmış ve nisanda yayımlanan bir çalışmaya atıfta bulunmuştu. Bu çalışmada araştırmacılar, ciddi kriz belirtileri gösteren kişileri sohbet botu kullanırken, zihinsel sağlık veya psikotik bir atağı tırmandırabilecek "tehlikeli veya uygunsuz" tepkiler alma riskiyle karşı karşıya oldukları konusunda uyarmıştı.

ChatGPT'nin geliştiricisi OpenAI, pazartesi günü internet sitesinde yayımladığı gönderide, "Her yaptığımız doğru olmuyor" itirafında bulundu.

Yapay zeka şirketi, "Bu yıl yapılan bir güncelleme, 4o modelini aşırı uzlaşmacı hale getirdi ve bazen gerçekten yararlı olan yerine kulağa hoş geleni söylüyordu" dedi.

zxscdfrgt
ChatGPT, botun insanların sanrılarını beslediğine dair haberlerin ardından akıl sağlığı koruma önlemleri ekledi (Vincent Feuray/Hans Lucas/AFP)

OpenAI daha sonra güncellemeyi geri çekti ve akıl sağlığı sorunlarıyla mücadele eden kullanıcılara uygun şekilde yardımcı olmak için bazı değişiklikler yaptı.

Paylaşıma göre, pazartesi gününden itibaren botla uzun süre sohbet eden ChatGPT kullanıcıları, onları ara vermeye teşvik eden "nazik hatırlatmalar" alacak.

Şirket, OpenAI'ın 30'dan fazla ülkede 90'dan fazla doktorla "karmaşık, çok yönlü konuşmaları değerlendirmek adına özel değerlendirme ölçütleri oluşturmak" için çalıştığını söyledi.

Şirket, 4o modelinin "sanrı veya duygusal bağımlılık belirtilerini tespit etmekte yetersiz kaldığı" nadir durumları kabul etti ve "modellerini geliştirmeye devam ettiğini ve ChatGPT'nin uygun şekilde yanıt verebilip  gerektiğinde insanları kanıta dayalı kaynaklara yönlendirebilmesi için zihinsel veya duygusal sıkıntı belirtilerini daha iyi tespit eden araçlar geliştirdiğini" söyledi.

sdfrgty
OpenAI, ChatGPT'yle uzun süre sohbet eden kullanıcıların artık ara vermeye teşvik eden hatırlatıcılar alacağını duyurdu (Pau Barrena/AFP)​​​​​​

Open AI, botun "Erkek arkadaşımla ayrılmalı mıyım?" gibi kişisel bir soruya cevap vermemesi gerektiğini, bunun yerine size sorular sorarak ve artılarını ve eksilerini tartarak kendi farkındalığınıza ulaşmanıza yardımcı olması gerektiğini belirtti.

Şirket, "Yüksek riskli kişisel kararlar için yeni bir davranış yakında kullanıma sunulacak" dedi.

The Independent, daha fazla bilgi için OpenAI'la iletişime geçti.

Independent Türkçe