Çinli yapay zeka şirketleri, yasaklı Nvidia çiplerine nasıl ulaşıyor?

Çin, son dönemdeki atılımlarıyla yapay zeka sektöründe ABD'nin en büyük rakibi haline geldi (Reuters)
Çin, son dönemdeki atılımlarıyla yapay zeka sektöründe ABD'nin en büyük rakibi haline geldi (Reuters)
TT

Çinli yapay zeka şirketleri, yasaklı Nvidia çiplerine nasıl ulaşıyor?

Çin, son dönemdeki atılımlarıyla yapay zeka sektöründe ABD'nin en büyük rakibi haline geldi (Reuters)
Çin, son dönemdeki atılımlarıyla yapay zeka sektöründe ABD'nin en büyük rakibi haline geldi (Reuters)

Yapay zeka alanında çalışan Çinli şirketler, Amerikan yazılım firması Nvidia'nın yasaklı çiplerine gizlice ulaşıyor. 

Amerikan gazetesi Wall Street Journal (WSJ), haberinde Çinli mühendislerin "gri pazar" satıcılarından oluşan bir ağ aracılığıyla Nvidia'nın çiplerini fiziksel olarak Çin'e getirmeden kullanabildiğini yazıyor. 

"Gri pazar" terimi, bir emtianın orijinal üretici veya ticari marka sahibi tarafından yetkilendirilmemiş dağıtım kanalları aracılığıyla satılmasını tanımlamak için kullanılıyor. 

Haberde bu taktiğin, Washington yönetiminin yapay zeka çiplerinin Çin'e ihracatına dair ekimde bazı kısıtlamalar getirmesinin ardından geldiğine dikkat çekiliyor.

Çinli firmalar, genellikle aracı şirketler üzerinden kripto parayla ödeme yaparak bulut sistemlerindeki Nvidia çiplerine erişebiliyor.

Çinli şirketlerin ABD'nin koyduğu engelleri aşmasını sağlayan girişimcilerden biri de eski Bitcoin madencisi Derek Aw. 

Dubai ve ABD'deki yatırımcıları Nvidia'nın güçlü H100 çiplerini barındıran yapay zeka sunucularının satın alınması için finansman sağlamaya ikna eden Aw, şunları söylüyor: 

Talep var. Kâr var. Doğal olarak birileri arzı sağlayacak.

Aw'un firması haziranda Nvidia çiplerini içeren en az 300 sunucuyu Avustralya'nın Brisbane kentindeki bir veri merkezine yükledi. Üç hafta sonra sunucular Pekin'deki bir şirket için yapay zeka algoritmalarını işlemeye başladı.

Çinli şirketlerden taleplerin arttığını belirten Aw şöyle devam ediyor: 

Geçen yılın sonundan bu yana platformumuzdaki Çinli müşteri sayısında önemli bir artış oldu. Bana sık sık Nvidia'nın çiplerine sahip olup olmadığımız soruluyor.

Kripto parayla yapılan ödemeler, Çinli firmalara anonim kalma fırsatı da sunuyor. Ayrıca bazı ödemeler Çinli şirketlerin Singapur veya başka ülkelerdeki iştirakleri üzerinden gerçekleştiriliyor. 

Bir dönem Şanghay'daki Çinli bir yapay zeka şirketinde çalışan Joseph Tse, blokzincir teknolojisinin olumsuz yanları da olabileceğine dikkat çekerek şunları söylüyor: 

Blokzincir kullanıcının gizliliğini koruyor fakat bu sefer de bir şeyler ters giderse birini sorumlu tutmak zorlaşıyor.

ABD yaptırımlarını inceleyen hukuk uzmanları, bu süreçte herhangi bir yasanın ihlal edilmediğini söylüyor. Bulut şirketleri, Çinli firmaların ya da yabancı iştiraklerinin Nvidia çiplerini kullanarak Amerika'daki bulut hizmetlerine erişimine yönelik bir kısıtlama bulunmadığını savunuyor.

Independent Türkçe, Wall Street Journal, CNBC



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging