Huawei yaptırımlara karşı koymaya çalışıyor

Huawei grubunun üst düzey stratejistlerinden Shao Yang Şangay’da düzenlenen CES fuarında açıklamalarda bulundu. (Reuters)
Huawei grubunun üst düzey stratejistlerinden Shao Yang Şangay’da düzenlenen CES fuarında açıklamalarda bulundu. (Reuters)
TT

Huawei yaptırımlara karşı koymaya çalışıyor

Huawei grubunun üst düzey stratejistlerinden Shao Yang Şangay’da düzenlenen CES fuarında açıklamalarda bulundu. (Reuters)
Huawei grubunun üst düzey stratejistlerinden Shao Yang Şangay’da düzenlenen CES fuarında açıklamalarda bulundu. (Reuters)

Çin teknoloji devi Huawei, ABD’nin kendisine açtığı savaşa karşılık vermeye hazırlanıyor.
Washington, ulusal güvenliği için tehdit gördüğü Huawei şirketine yönelik girişimlerine hız vermiş ve başta Avrupalı ortakları olmak üzere tüm uluslararası alanı Huawei konusunda uyarmıştı. Huawei ürünlerine 5G ağı lisansı verilmemesi konusunda uyarıda bulunan ABD, kara listeye eklediği şirket ile ticari ilişkilerde bulunulmaması konusunda sert çıkmıştı. ABD, uyarısını dikkate almayan uluslararası şirketleri de yaptırım uygulamakla tehdit etmişti.
Söz konusu gelişmelerin ardından birçok teknoloji şirketi Huawei ile ilişkilerini kesmek için harekete geçti. Google, Huawei ile çalışmaya devam etmeyeceğini ve bundan sonra Huawei ürünlerine Android lisansı verilmeyeceğini açıkladı. Bu, Huawei telefonlarının adeta ‘ruhsuz bir ceset’ haline gelmesi demekti. Ardından telefonlar için vazgeçilmez derecede önemli olan programları geliştiren diğer bazı özel şirketler de Huawei ile çalışmayacağını duyurdu. Huawei ürünlerini kullananların sosyal medyanın önde gelen uygulamaları olan Facebook, Messenger, WhatsApp ve Instagram uygulamalarını kullanamayacakları bildirildi.
Söz konusu gelişmelerin ardından yaşadığı işletim sistemi krizini aşmak isteyen Huawei birçok ülkede HongMeng işletim sistemi için başvuruda bulundu. Bu adım, Huawei’nin ABD tarafından kendisine uygulanan yaptırımlara karşı B planını devreye soktuğuna işaret ediyor.
Uluslararası alanın en büyük teknoloji şirketlerinden olan Huawei, Donald Trump yönetiminin kendisini geçen ay kara listeye eklemesinden bu yana Kamboçya, Kanada, Güney Kore ve Yeni Zelanda gibi ülkelerde kullanılan HongMeng sistemi için başvurularına hız verdi.
Şirket, geçen 27 Mayıs’ta Peru’ya HongMeng ismi için marka başvurusunda bulundu. Peru makamları Huawei’den daha detaylı bilgi istedi. Talep edilen dosyaları temin etmesi için şirkete 9 ay mühlet verdi. Peru, Huawei’nin en önemli pazarları arasında yer alıyor. Huawei’nin Peru’da 5,5 milyon kullanıcısı bulunuyor.
Huawei şirketinin ticari tüketici grubu CEO'su Richard Yu, bu senenin başında Die Welt gazetesine yaptığı açıklamada Huawei’nin ABD merkezli program şirketlerinin yasaklanması durumunda kullanabileceği yedek işletim sistemi bulunduğunu belirtmişti.
Dünya genelindeki en büyük ikinci telefon şirketi olan Huawei henüz yeni işletim sisteminin detaylarını açıklamış değil.
Huawei yerel pazarda da HongMeng için marka başvurusu yapmış ve marka hakkını almıştı.
Teknoloji şirketlerinin bir kısmına göre Huawei artık savunmadan çıkıp saldırıya geçmek istiyor. Aktarılan bilgilere göre Oppo ve Xiaomi gibi bazı telefon şirketleri Huawei’nin alternatif olarak getirdiği işletim sistemini deniyor. Söz konusu gelişmeler, ABD merkezli şirketlerin işletim sistemi konusundaki hegemonyasını sona erdirebilir. Sızdırılan bilgilere göre HongMeng işletim sistemi Android’ten yüzde 60 daha hızlı.
HongMeng işletim sistemi, akıllı telefonlar, bilgisayarlar, tabletler, televizyonlar ve arabalarda kullanılacak. Kişisel bilgilerin korunması noktasında Android’ten daha güçlü bir güvenlik sistemine sahip olduğu belirtilen HongMeng’in Android üzerinden çalışan tüm uygulamalarla uyumlu olacağı kaydediliyor.
Uyumluluk özelliği önemli bir adım. Ancak büyük popülariteye sahip uygulamaların sahipleri resmi ve kanuni haklarını kullanarak uygulamalarının Huawei’ye ait yeni işletim sisteminde yer almasını engelleyebilir. Yine de kullanıcılar resmi olmayan yollardan bu uygulamaları kullanabilir. Huawei’de kanuni sorumluluklardan kaçmak için söz konusu korsan uygulamaların kullanımı için belirli boşluklar bırakabilir.
Huawei bu yılın ortalarında Apple şirketini geçerek akıllı telefon alanında uluslararası alanın en büyük ikinci şirketi olmuştu. Huawei dünya birincisi Samsung’un da önüne geçmeyi hedefliyor.
Ancak yaşanan son gelişmelerin ardından Huawei akıllı telefon alanında birinci olma planında gecikme yaşandığını ve planın uygulanması için daha uzun bir süreye ihtiyaç duyulduğunu duyurdu. Huawei’nin baş stratejistlerinden Shao Yang, Çin’in Şangay kentinde düzenlenen CES fuarından yaptığı açıklamalarda “Bu yılın son çeyreğinde dünyanın en büyük telefon şirketi olmak istiyoruz. Ancak bunun için daha uzun süreye ihtiyacımız olduğunu düşünüyoruz” dedi.
Medya’da çıkan haberlere göre Huawei, ABD yaptırımlarından dolayı dizüstü bilgisayar pazarından çekilebilir.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe