Teknoloji dünyasını sallayan DeepSeek, Ay Yeni Yılı tatiline girdi

DeepSeek'in Pekin'deki ofislerinin kat işareti (AFP)
DeepSeek'in Pekin'deki ofislerinin kat işareti (AFP)
TT

Teknoloji dünyasını sallayan DeepSeek, Ay Yeni Yılı tatiline girdi

DeepSeek'in Pekin'deki ofislerinin kat işareti (AFP)
DeepSeek'in Pekin'deki ofislerinin kat işareti (AFP)

Bu hafta çığır açan yapay zeka modelleriyle teknoloji dünyasını sallayan Çinli girişim DeepSeek, Ay Yeni Yılı için bir ara verdi.

Amerikalı teknoloji devleri OpenAI, Google ve Meta'ya rakip olacak düşük maliyetli ve açık kaynaklı yapay zeka modelleri çıkararak sektörü ve küresel borsaları sarsan şirket, pazartesi günü ABD hisselerinde yaklaşık bir trilyon dolarlık değer kaybına yol açmıştı.

Silikon Vadisi, Wall Street ve yeni başkan Donald Trump da dahil Amerika'nın siyasi yönetimi hâlâ DeepSeek'in atılımını tartışıyorken şirketin Hangzhou'daki merkezi, bir hafta sürecek Yeni Ay Yılı tatiline girdi.

DeepSeek, son güncellemesini pazartesi gününün sonlarına doğru yayımladı ve yerel basında çıkan haberlerde girişimin ofislerinin salı sabahından itibaren tatil nedeniyle terk edildiği bildirildi.

Yeni Ay Yılı, 12 yıllık bir döngüden oluşuyor ve döngüdeki her sene, Çin astrolojisinde metal, ahşap, su, ateş veya toprakla eşleştirilmiş bir hayvanla bağlantılı. Yılan Yılı kutlamaları çarşamba günü itibarıyla başladı.

Tech in Asia'nın bildirdiğine göre yine de şirkete duyulan heyecan sürüyor ve güvenlik görevlileri merkeze gelen davetsiz misafirleri geri çeviriyor.

Şirket bu hafta R1 adlı gelişmiş yapay zeka modelinin, OpenAIın eğitmek için daha fazla sayıda pahalı Nvidia çipi kullandığı ChatGPT'si gibi batılı rakiplerinden çok daha düşük maliyetle eğitildiğini iddia etmişti.

DeepSeek, yapay zeka modelinin OpenAI, Meta ve Google gibi ABD şirketlerinin benzer sistemler üretmek için harcadığı milyarlarca doların aksine, eski Nvidia H800 çipleriyle eğitilmesine harcadığı hesaplama gücünün 6 milyon dolardan daha aza mal olduğunu söylemişti. Girişim eski çiplerle çalışmak zorunda kalmıştı çünkü ABD, Çin'in yapay zeka alanındaki ilerlemesini engellemek amacıyla gelişmiş Nvidia sistemlerinin ihracatını yasaklamıştı.

DeepSeek'in bu zor koşullara rağmen elde ettiği başarı, Amerikalı büyük yapay zeka şirketlerinin servetlerinde hızlı ve keskin değişimlere yol açmıştı. Salı günü hisseleri yüzde 17 düşen Nvidia, piyasa değeri 500 milyar doların üzerindeki şirketler arasında en büyük tek günlük kayıpla tarihe geçmişti.

Trump, Çin girişiminin başarısının ABD teknoloji sektörü için bir "uyarı" olduğunu söylemişti.

Salford Üniversitesi'nden bir ekonomi uzmanı olan Richard Whittle, "DeepSeek'in üst seviye yapay zeka aracını ücretsiz bir şekilde piyasaya sürmesi ve geliştirilme maliyetinin çok düşük olduğunu bildirmesi hızla ilerleyen yapay zeka pazarında Silikon Vadisi ve Amerika'nın hakimiyetine duyulan inancı sarstı" demişti.
 

xzscdfvgrth
Pekin'deki DeepSeek ofislerinin binası (AFP)

DeepSeek ekibi, kayda değer başarısına rağmen dikkat çekmekten sakınıyor. Girişimin hakim hissedarı Liang Wenfeng aynı zamanda High-Flyer adlı kantitatif serbest yatırım fonunun kurucularından. Serbest yatırım fonunun DeepSeek'te ne kadar hissesi olduğu bilinmiyor.

Hükümet kayıtları, High-Flyer'ın yapay zeka modellerini eğitmek için kullanılan çiplerin patentlerine sahip olduğunu gösteriyor.

Kamuoyu, hükümet kayıtlarına göre resmi adı Hangzhou DeepSeek Yapay Zeka Temel Teknoloji Araştırma Co Ltd olan Deepseek'in diğer çalışanları hakkında pek fazla bilgiye sahip değil.

Şirketin yapay zeka modeli üzerine arXiv veritabanında yayımladığı araştırmada, yaklaşık 70 çalışanın adı geçiyor.

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging