Çin merkezli yapay zeka şirketlerine ​​'komünist' ayar

Çin, üretken yapay zeka alanında üstünlük için ABD ile yarışıyor (Reuters)
Çin, üretken yapay zeka alanında üstünlük için ABD ile yarışıyor (Reuters)
TT

Çin merkezli yapay zeka şirketlerine ​​'komünist' ayar

Çin, üretken yapay zeka alanında üstünlük için ABD ile yarışıyor (Reuters)
Çin, üretken yapay zeka alanında üstünlük için ABD ile yarışıyor (Reuters)

Şarku'l Avsat'ın The Telegraph'tan aktardığı habere göre Çin'deki teknoloji şirketleri, yapay zeka işlevlerinin Komünist Partinin söylemleri ve sosyalist değerleri somutlaştırdığından emin olmak için hükümet yetkilileri tarafından test ediliyor.

ByteDance ve Alibaba gibi büyük isimlerin yanı sıra küçük girişimler de, Tiananmen Meydanı katliamı ve Çin Devlet Başkanı Şi Jinping'in yönetimi gibi siyasi açıdan hassas konularda parti çizgisine uyup uymadıkları inceleniyor.

Pekin, teknolojik olarak kendi kendine yeterliliği bir öncelik haline getirerek, üretken yapay zeka alanında üstünlük kurmak için ABD ile bir yarış halinde.

Yapay zeka, yanıtlar üretmek için geniş dil modellerine dayanıyor ve çekiciliği kısmen özgür düşünebildiği algısından kaynaklanıyor.

Ancak Çin katı sansür yasalarını sürdürüyor ve geçen yıl chatbotlara sosyalist değerlere bağlı kalma zorunluluğu getirildi; bu nedenle yetkililer yeniliği teşvik etmeye çalışırken hizmetler ciddi kısıtlamalarla karşı karşıya kalıyor.

Denetimler, hükümetin ana internet düzenleyicisi olan Çin Siber Uzay İdaresi (CAC) tarafından yürütülüyor. Denetçilerden oluşan ekipler, yapay zekayı yöneten dünyanın en zorlu düzenleyici rejimi olma yolundaki adımları uygulamak üzere ülke geneline gönderildi.

Çin'in doğusundaki Hangzhou'daki bir yapay zeka şirketinin bir çalışanı, Financial Times'a şöyle konuştu: "İlk seferde başarılı olamadık. Sebebi pek açık değildi, bu yüzden gidip akranlarımızla konuşmak zorunda kaldık... Sadece biraz tahmin etmek ve ince ayar yapmak gerekiyor. İkinci kez başardık ama tüm süreç aylar sürdü."

Onay sürecinin titizliği, uzman mühendislerin ve danışmanların büyük dil modellerini eğitmek ve izlemek, hassas anahtar kelimelerden oluşan bir veritabanı oluşturarak, sorunlu içeriği filtrelemek için hızlı yollar bulmaya sevk etti.

Şarku'l Avsat'ın Wall Street Journal'den aktardığı habere göre hükümet, şirketlerden, modellerin "güvenli" yanıtlar üretip üretmediğini test etmek için tasarlanmış 20 bin ile 70 bin arasında soru hazırlamalarını istiyor.

Şirketlerin ayrıca, modelin yanıtlamayı reddedeceği 5 bin  ila 10 bin sorudan oluşan bir veri seti de sunması gerekiyor. Bu soruların yaklaşık yarısı siyasi ideoloji ve Komünist Partiye yönelik eleştirilerle ilgili.

Yasaklı konular arasında genellikle Tiananmen Meydanı katliamı tarihi olan 4 Haziran 1989'daki olaylar ya da Şi'nin Çin'de sansürlenen popüler bir internet meme'i olan Winnie the Pooh'a benzeyip benzemediğine ilişkin sorular yer alıyor.

Sohbet platformları, bu tür soruları, kullanıcıdan farklı bir sorgu denemesini isteyerek veya isteğe nasıl cevap vereceğini henüz öğrenmediğini söyleyerek yanıt verecek şekilde tasarlanmıştır.

Bu yılın başlarında Çin Siber Akademisi, "Çin özelliklerine sahip sosyalizmi" destekleyen bir doktrin olan Şi Jinping Düşüncesi konusunda eğitilmiş bir sohbet robotunun duyurusunu yaptı.

Çinli okul öğrencileri zaten Çin devlet başkanlarının düşünceleri hakkında dersler alıyorlar.



Yapay zekaya yöneltilince çevreye en çok zarar veren sorular belirlendi

Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
TT

Yapay zekaya yöneltilince çevreye en çok zarar veren sorular belirlendi

Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)
Tablet ekranında ChatGPT ve DeepSeek sohbet botlarının logoları görülüyor (AFP)

Yeni bir araştırmaya göre OpenAI'ın ChatGPT'si gibi yapay zeka sohbet botlarının mantıklı düşünmesini ve akıl yürütmesini gerektiren sorgular, diğer soru türlerine göre daha fazla karbon salımına yol açıyor.

ChatGPT gibi geniş dil modellerine (GDM) yazılan her sorgu enerji gerektiriyor ve karbondioksit salımına yol açıyor. Almanya'daki Münih Uygulamalı Bilimler Üniversitesi'nden araştırmacılar bu emisyon seviyelerinin sohbet botuna, kullanıcıya ve konuya bağlı olarak değiştiğini söylüyor.

Hakemli dergi Frontiers'ta yayımlanan araştırma, 14 yapay zeka modelini karşılaştırarak karmaşık akıl yürütme gerektiren cevapların, basit cevaplara göre daha fazla karbon salımı yaptığını ortaya koydu.

Soyut cebir veya felsefe gibi uzun uzun muhakeme gerektiren sorgular, lise tarih dersi gibi daha dolambaçsız konulara göre 6 kat daha fazla emisyon üretiyor.

Araştırmacılar yapay zeka sohbet botlarını sık kullananların, karbon emisyonlarını sınırlamak için sordukları soruların türünü ayarlamasını öneriyor.

Çalışma, farklı konularda bin standart soru üzerinden 14 GDM'yi değerlendirerek karbon salımlarını karşılaştırdı.

Çalışmanın yazarı Maximilian Dauner, "Eğitimli GDM'lere sorulan soruların çevresel etkisi, bunların muhakeme yaklaşımına büyük ölçüde bağlı ve doğrudan akıl yürütme süreçleri, enerji tüketimini ve karbon salımlarını önemli ölçüde artırıyor" diyor.

Akıl yürütme özelliğine sahip modellerin, yalın yanıt veren modellere kıyasla 50 kata kadar daha fazla karbondioksit salımına yol açtığını gördük.

Bir kullanıcı yapay zeka sohbet botuna soru sorduğunda, sorgudaki kelimeler veya kelime parçaları bir dizi sayıya dönüştürülerek model tarafından işleniyor. Bu dönüştürme ve yapay zekanın diğer hesaplama süreçleri karbon salımlarına neden oluyor.

Çalışma muhakeme becerisine sahip modellerin soru başına ortalama 543,5 jeton (token) oluştururken, yalın modellerin sadece 40 jeton gerektirdiğini belirtiyor.

Makalede "Daha yüksek jeton ayak izi, her zaman daha yüksek CO2 emisyonu anlamına gelir" ifadeleri kullanılıyor.

Örneğin yaklaşık yüze 85 doğruluk oranına ulaşan Cogito, en isabetli modellerden biri. Yalın cevaplar veren benzer boyutlardaki modellere göre üç kat daha fazla karbon emisyonu üretiyor.

Dr. Dauner, "Şu anda GDM teknolojilerinin doğasında, doğruluk ve sürdürülebilirlik arasında bir taviz verme ilişkisi görüyoruz" diyor. 

Emisyonları 500 gram karbondioksit eşdeğerinin altında tutan modellerin hiçbiri, bin soruyu doğru cevaplamada yüzde 80'in üzerinde doğruluk oranına ulaşamadı.

Karbondioksit eşdeğeri, çeşitli sera gazlarının iklim değişikliği üzerindeki etkisini ölçmek için kullanılan bir birim.

Araştırmacılar yeni bulguların, insanların yapay zeka kullanımı hakkında daha bilinçli kararlar almasını sağlayacağını umuyor.

Araştırmacılar bir örnek vererek DeepSeek R1 sohbet botundan 600 bin soruyu yanıtlamasını isteyen sorguların, Londra'dan New York'a gidiş-dönüş uçuşuna eşdeğer karbon emisyonu yaratabileceğini söylüyor.

Buna karşılık Alibaba Cloud'ın Qwen 2.5'i, benzer doğruluk oranlarıyla üç kat daha fazla soruya cevap verirken aynı emisyon seviyelerine ulaşıyor.

Dr. Dauner, "Kullanıcılar, yapay zekadan yalın cevaplar vermesini isteyerek veya yüksek kapasiteli modellerin kullanımını, gerçekten bu gücü gerektiren görevlerle sınırlayarak emisyonları önemli ölçüde azaltabilir" diyor.

Independent Türkçe