HP Ortadoğu Genel Müdürü Oganesyan Şarku’l Avsat'a konuştu: ‘Hibrit çalışma’ güvenli ve sürdürülebilir teknolojiler gerektirir

Şirketlerin uzaktan çalışırken üretken ve güvenli olabilmelerini sağlamak için bilgisayar, baskı ve iletişim cihazları geliştiriliyor (Shutterstock)
Şirketlerin uzaktan çalışırken üretken ve güvenli olabilmelerini sağlamak için bilgisayar, baskı ve iletişim cihazları geliştiriliyor (Shutterstock)
TT

HP Ortadoğu Genel Müdürü Oganesyan Şarku’l Avsat'a konuştu: ‘Hibrit çalışma’ güvenli ve sürdürülebilir teknolojiler gerektirir

Şirketlerin uzaktan çalışırken üretken ve güvenli olabilmelerini sağlamak için bilgisayar, baskı ve iletişim cihazları geliştiriliyor (Shutterstock)
Şirketlerin uzaktan çalışırken üretken ve güvenli olabilmelerini sağlamak için bilgisayar, baskı ve iletişim cihazları geliştiriliyor (Shutterstock)

Dünya, koronavirüs krizinin yarattığı yeni bir hibrit çalışma çağına girerken, büyük teknoloji şirketleri üretkenlik, güvenlik ve sürdürülebilirlik hakkındaki düşüncelerimizi yeniden tanımlamak için cesur adımlar atıyor.

Son iki yılda dünya, çalışanların artık esneklik talep etmeleri ve her yerden çalışma, işbirliği yapma ve iletişim becerisi nedeniyle geleneksel ofis çalışmasından, hibrit çalışma modellerine doğru bir değişime tanık oldu. Bu gereksinimleri karşılamak için büyük teknoloji şirketleri ve hatta yeni kurulan şirketler, şirketlerin üretkenliği ve güvenliği sürdürebilmelerini sağlamak amacıyla bilgi işlem ve iletişim cihazlarını içeren ‘hibrit çalışma’ dönemi için kapsamlı çözümler geliştirmeye çalışıyor.

xzcsdfe
HP, siber saldırılara karşı koruma sağlamak için bilgisayar ve yazıcılarda bir dizi güvenlik teknolojisi geliştiriyor (Shutterstock)

Müşterileri seçim yapmaları için güçlendirmek

HP'nin müşteri odaklılığı, müşterilerin her yerden, her cihazda sorunsuz bir şekilde çalışmasına olanak tanıyan kapsamlı bir teknoloji paketini yönlendiriyor. HP Ortadoğu Genel Müdürü Peter Oganesyan, Dubai'de Şarku’l Avsat'a verdiği özel röportajda, "Müşterilerin aradıkları her yerden üretken ve güvenli olmalarını sağlayan bir çözüm sunmak önemlidir. HP çözümleri, entegre hibrit sistemler ve baskı, bilgi işlem ve işbirliği cihazlarından sunulan ürün ve hizmet yelpazesi, uzaktan çalışma için gereken tüm ihtiyaçları karşılamaktadır” dedi.

İşbirliği araçlarının önemi

HP'nin kapsamlı bir hibrit çalışma çözümü oluşturma yolculuğundaki en önemli anlardan biri, işbirliği araçlarının öneminin farkına varmasıydı. Bu sorunu çözmek için HP, lider bir iletişim ve işbirliği çözümleri şirketi olan Poly'yi satın aldı. İki şirket arasındaki birleşme, HP'nin şirketi 3,3 milyar dolara satın almasının ardından Ağustos 2022'de resmen tamamlandı. HP CEO'su Enrique Loris, hibrit çalışma çözümleri alanında lider bir sağlayıcı yaratma hedefiyle gerçekleştirilen bu satın almayı tarihi bir gün olarak nitelendirdi.

Birleşme ile HP, Poly'nin video konferans ve diğer işbirliği teknolojilerindeki uzmanlığına erişirken, Poly de HP'nin küresel erişiminden ve ölçeğinden yararlanacak.

Ortadoğu, HP için benzersiz ve dinamik bir pazarı temsil ediyor. Birden fazla ülke ve farklı müşteri ihtiyaçları ile şirket, ‘tekliflerini her müşteriye göre özelleştiriyor.’ Bölgede yüz yüze etkileşimlerin öneminin farkında olan HP, uzaktan iletişim araçlarının kritik hale gelmesiyle hibrit çalışmanın ortaya çıkışına uyum sağlıyor ve sürekli seyahat etmeye gerek kalmadan müşterilerle verimli toplantılar ve etkileşimler sağlıyor.

Sürdürülebilirlik ve siber güvenlik

Üretkenlik ve güvenliğin yanı sıra, müşteriler artık çevreye duyarlı çözümler aradıklarından, sürdürülebilirlik, özellikle teknoloji olmak üzere çok sayıda şirketin stratejisinin çok önemli bir yönüdür. HP, geri dönüştürülebilir ürünler ve çevresel etkiyi azaltmaya odaklanma açısından sürdürülebilirlik hedeflerini karşılayan ürünler sağlamayı taahhüt etmektedir.

Sürdürülebilirlik gibi siber güvenlik de değişen iş ortamı göz önüne alındığında ön plana çıkmıştır.

Yapay zekanın artan önemi

Yapay zeka sadece moda bir sözcük değil, birçok kişinin hayatını değiştiren ve etkileyen somut ve dönüştürücü bir teknolojidir. Yapay zeka, bireyleri güçlendirmek, daha canlı ve işbirlikçi hale getirmek için bir araç olarak görülürken, ürün tasarımını doğrudan etkilemesi, yapay zeka destekli video konferansı geliştirmesi ve cihazların verimliliğini uzaktan izlemesi bekleniyor. Şarku’l Avsat'a özel bir röportaj veren HP veri bilimi uzmanı Cecile Montsell, akıllı bilgisayarların yapay zeka uygulamalarının performansını ve verimliliğini artırmada rol oynayacağını söyledi.

HP'nin işin geleceğine yönelik vizyonu, uyarlanabilirlik, yenilikçilik ve müşteri odaklılık ile karakterize ediliyor. Dünya hibrit çalışma modellerini benimserken, HP'nin kapsamlı çözümü müşterilerin talep ettiği esnekliği, güvenliği ve sürdürülebilirliği sağlıyor ve şirket, bireylerin ve kuruluşların gelişen iş dünyasında başarıya ulaşmalarını sağlamak için çalışıyor.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe