Google yapay zekasının silahlarda kullanılmasının önünü açtı

2018'de yapay zekasının silahlarda kullanımını yasaklayan şirket, geçen ay "genel zarar verme ihtimali olan" hiçbir şey için kullanılmayacağında ısrar etmişti.

Fotoğraf: AP
Fotoğraf: AP
TT

Google yapay zekasının silahlarda kullanılmasının önünü açtı

Fotoğraf: AP
Fotoğraf: AP

Google'ın daha önce yapay zeka sistemlerinin silah ve gözetimde kullanılmasını yasaklayan etik kurallarını kaldırdığı bildirildi.

Washington Post'un haberine göre teknoloji devi, daha 30 Ocak'ta yapay zekasının silah, gözetleme ve "genel zarara neden olan veya olması muhtemel" diğer teknolojilerde kullanılmayacağını söylemişti.

The Independent cevap hakkı için Google'la iletişime geçti.

Salı günü yapay zeka alanında çalışan üst düzey şirket yetkililerinin kaleme aldığı blog yazısında şirket, "giderek karmaşıklaşan jeopolitik ortamda yapay zeka liderliği için küresel rekabet yaşandığını" savundu.

Yazıda, "Demokrasilerin özgürlük, eşitlik ve insan haklarına saygı gibi temel değerlerin rehberliğinde yapay zeka gelişimine öncülük etmesi gerektiğine inanıyoruz" dendi.

Ve bu değerleri paylaşan şirketlerin, devletlerin ve kuruluşların insanları koruyan, küresel büyümeyi ve ulusal güvenliği destekleyen bir yapay zeka yaratmak için birlikte çalışması gerektiğine inanıyoruz.

2018'de şirket, ABD Savunma Bakanlığı'nın drone videolarını analiz etmek için Google teknolojisini kullanmak üzere yaptığı sözleşme nedeniyle şirket içi protestolarla karşılaştıktan sonra, yapay zekasının silahlarda kullanılmasını yasaklamıştı.

Görsel kaldırıldı.
Google, Pentagon için drone videolarını analiz eden geçmiş çalışmaları nedeniyle çalışanlarının protestolarıyla karşılaşmıştı (AP)

Google'da yaşandığı bildirilen değişiklikler, teknoloji endüstrisinde süregelen daha büyük bir değişimle paralellik gösteriyor. Elon Musk gibi birçok teknoloji lideri siyasi olarak sağa kayarken, ABD savunma ve gözetim yetkilileriyle ortaklık kurma isteğinde artış var.

Aralık ayında ChatGPT üreticisi OpenAI, drone'lara karşı askeri savunmada kullanılmak üzere teknoloji geliştirmek için bir başka teknoloji şirketi Anduril'le ortaklık kurduğunu duyurmuştu.

OpenAI daha önce teknolojisini askeri kullanımdan men etmişti ancak geçen yıl politikalarını değiştirerek bazı işbirliklerine izin verdi.

OpenAI, Wall Street Journal'a yaptığı açıklamada Anduril'le geliştirilen teknolojinin sadece savunma uygulamalarında kullanılacağını belirtmiş ve CEO Sam Altman, şirketinin "teknolojinin demokratik değerleri korumasını sağlamayı" amaçladığını söylemişti.

Bir başka büyük yapay zeka şirketi Anthropic, savunma kurumlarına hizmet vermek için teknoloji firması Palantir ve Amazon Web Services'le işbirliği yapıyor.

Palantir, Anduril, OpenAI, Saronic ve Scale AI'ın, Boeing ve Lockheed Marin gibi eski yüklenicilere meydan okumak amacıyla Pentagon'un ana sözleşmelerine teklif vermek üzere konsorsiyum oluşturmak için Musk'ın havacılık firması SpaceX'le görüşmelerde bulunduğu bildiriliyor.

Geçmişte Demokrat adaylarla aynı safta yer almasına rağmen, teknoloji sektörü yeni yönetimle birlikte çalışmak için yoğun çaba sarf ediyor. Teknoloji şirketleri Trump'ın göreve başlama fonuna milyon dolarlık bağışlarda bulundu ve Meta, Amazon, Apple ve Google CEO'ları geçen ay yemin törenine katıldı.

Bu değişimi kimse, geçmişte Demokratlara verdiği destekten vazgeçip Trump'a arka çıkmak için 290 milyon dolardan fazla para harcayan Musk'tan daha iyi temsil edemez. Artık Musk, maliyet düşürücü Hükümet Verimliliği Bakanlığı girişimi aracılığıyla federal hükümetin harcama öncelikleri üzerinde eşi benzeri görülmemiş bir etkiye sahip. Şirketlerinin federal hükümetle yaptığı milyonlarca dolarlık sözleşmeler göz önüne alındığında bu, etik kaygılara yol açıyor.

Teknoloji endüstrisi, DeepSeek'in piyasaya sürülmesi dahil Çin'in yapay zeka alanındaki hızlı ilerlemeleri göz önüne alındığında savunma kurumuyla daha yakın bir işbirliğinin gerekli olduğunu savunuyor. Çinli bir şirketin ABD'li rakipleriyle boy ölçüşen ancak maliyetinin çok altında geliştirilen yapay zeka asistanı DeepSeek'in piyasaya sürülmesi ABD hisselerinin çakılmasına neden olmuştu.

Independent Türkçe



Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
TT

Deepfake videoları tespit etmek giderek zorlaşıyor: Artık gerçekçi kalp atışları var

Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)
Kişilerin rızası ve bilgisi dışında üretilen deepfake görüntüler endişe yaratıyor (Reuters)

Deepfake videoların gelişmiş saptama yöntemlerini yanıltabildiği ve her geçen gün daha gerçekçi hale geldiği tespit edildi. 

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe yaratmaya devam ediyor. 

Bu videolar gerçek bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle yapılıyor. Aslında bu teknoloji, kullanıcıların yüzünü kediye dönüştüren veya yaşlandıran uygulamalar gibi zararsız amaçlarla da kullanılabiliyor.

Ancak insanların cinsel içerikli videolarını üretmek veya masum insanlara iftira atmak için de kullanılabilmesi ciddi bir sorun teşkil ediyor.

Bu videoların sahte olup olmadığını anlamak için kullanılan gelişmiş yöntemlerden biri kalp atışlarını izlemek. 

Uzaktan fotopletismografi (rPPP) adlı araç, deriden geçen ışıktaki küçük değişiklikleri tespit ederek nabzı ölçüyor. Nabız ölçen pulse oksimetreyle aynı prensiple çalışan bu araç, çevrimiçi doktor randevularının yanı sıra deepfake videoları tespit etmek için de kullanılıyor.

Ancak bulguları hakemli dergi Frontiers in Imaging'de bugün (30 Nisan) yayımlanan çalışmaya göre deepfake görüntülerde artık gerçekçi kalp atışları var.

Bilim insanları çalışmalarına videolardaki nabız hızını otomatik olarak saptayıp analiz eden bir deepfake dedektörü geliştirerek başladı. 

Ardından rPPP tabanlı bu aracın verilerini, EKG kayıtlarıyla karşılaştırarak hassasiyetini ölçtüler. Son derece iyi performans gösteren aracın EKG'yle arasında dakikada sadece iki-üç atımlık fark vardı. 

Ekip aracı deepfake videolar üzerinde test ettiğindeyse rPPP, videoya kalp atışı eklenmese bile son derece gerçekçi bir kalp atışı algıladı. 

Bilim insanları kalp atışlarının videoya kasten eklenebileceği gibi, kullanılan kaynak videodan kendiliğinden geçebileceğini de söylüyor.

Almanya'daki Humboldt Üniversitesi'nden çalışmanın ortak yazarı Peter Eisert "Kaynak video gerçek bir kişiye aitse, bu artık deepfake videoya aktarılabiliyor" diyerek ekliyor: 

Sanırım tüm deepfake dedektörlerinin kaderi bu; deepfake'ler gittikçe daha iyi hale geliyor ve iki yıl önce iyi çalışan bir dedektör bugün tamamen başarısız olmaya başlıyor.

Araştırmacılar yine de sahte videoları saptamanın başka yolları olduğunu düşünüyor. Örneğin sadece nabız hızını ölçmek yerine, yüzdeki kan akışını ayrıntılı olarak takip eden dedektörler geliştirilebilir.

Eisert, "Kalp atarken kan, damarlardan geçerek yüze akıyor ve daha sonra tüm yüz bölgesine dağılıyor. Bu harekette gerçek görüntülerde tespit edebileceğimiz küçük bir gecikme var" diyor.

Ancak bilim insanına göre nihai çözüm deepfake dedektörlerinden ziyade, bir görüntünün üzerinde oynanıp oynanmadığını anlamaya yarayan dijital işaretlere odaklanmaktan geçiyor:

Bir şeyin sahte olup olmadığını tespit etmek yerine bir şeyin değiştirilmediğini kanıtlayan teknolojiye daha fazla odaklanmadığımız sürece, deepfake'lerin saptanmalarını zorlaştıracak kadar iyi olacağını düşünüyorum.

Independent Türkçe, BBC Science Focus, TechXplore, Frontiers in Imaging