Üretken yapay zeka akıllı telefonlara, bilgisayarlara ve arabalara taşınıyor

Gelişmiş çipler ve işlemciler geliştirilmesi yeni imkanlara kapı araladı.
Gelişmiş çipler ve işlemciler geliştirilmesi yeni imkanlara kapı araladı.
TT

Üretken yapay zeka akıllı telefonlara, bilgisayarlara ve arabalara taşınıyor

Gelişmiş çipler ve işlemciler geliştirilmesi yeni imkanlara kapı araladı.
Gelişmiş çipler ve işlemciler geliştirilmesi yeni imkanlara kapı araladı.

Gelişmiş cihazların işlem gücünü kullanan üretken yapay zeka araçları, uygulamaları ve hizmetleri verilere kolayca erişebiliyor, sonuçları daha hızlı analiz edebiliyor ve daha güvenli hale geliyor. Bu nedenle geliştiriciler bunları yaygın elektronik cihazlarda kullanmaya çalışıyor.

Bulut üretim platformları

Chat GPT sohbet robotunda kullanılanlar gibi üretken yapay zeka sistemleri, hizmet sağlayıcıların ve şirketlerin büyük veri merkezlerinde yer alıyor. Şirketler üretken yapay zeka hizmetlerinden yararlanmak istediklerinde, Microsoft 365 Copilot gibi bir yapay zeka platformuna erişim için ödeme yapıyor.

Ancak söz konusu bulut tabanlı sistemle ilgili tek sorun, onu çalıştıran büyük dil modelinin ve veri merkezlerinin, yalnızca uygulamaları çalıştırmak için değil, aynı zamanda büyük ve kurumsal veriler üzerinde üretken yapay zeka modellerini eğitmek için de gelişmiş GPU döngüleri ve büyük elektrik gücü tüketmesi. Ayrıca ağ bağlantısı sorunlarıyla da karşılaşabiliyor.

Bu nedenle üretken yapay zeka endüstrisi, büyük dil modellerini eğitmek ve çalıştırmak için gereken özel işlemcilerin eksikliğiyle de karşı karşıya.

Bu nedenle, danışmanlık firması J. Gould Associates'in kıdemli analisti Jack Gould ve bu alandaki diğer uzmanlar, üretken yapay zekanın gelişmiş cihazlara odaklanması gerektiğine inanıyor. Yani, önümüzdeki yıllarda odak noktası bilgisayarlar, tabletler, akıllı telefonlar ve hatta arabalar olacak ve bu da üretici yapay zeka uygulamalarının üreticilerinin işleme görevini veri merkezlerinden aktarmasına ve cihaz ile ağa bağlantının maliyetini ödeyen kullanıcı olduğu için ücretsiz kâr elde etmesine olanak tanıyacak.

Şarku’l Avsat’ın edindiği bilgilere göre üretken yapay zekanın dijital dönüşümü, bulut sektörünü geride bırakana kadar sektörün büyümesine katkı sağlıyor. Araştırma firması Gartner, 2025 yılına kadar şirketler tarafından yönetilen verilerin yüzde 50'sinin bir veri merkezi ya da bulut dışında işleneceğini ve üretileceğini öngörüyor.

Intel, Nvidia ve AMD gibi işlemci üreticileri ise dikkatlerini, gelişmiş cihazlardaki grafik işlem birimlerinin ve merkezi işlem birimlerinin üretken yapay zeka görevlerini yerine getirmelerine yardımcı olan küçük çipler (çip üzerinde sistem) ve sinirsel işlem birimleri üretmeye yönelttiler.

IDC'nin uluslararası araştırmalardan sorumlu başkan yardımcısı Rick Viars, Computer World dergisi tarafından bildirilen bir röportajda şunları söyledi:

“Üretken yapay zeka iPhone 15'te değil, iPhone 16'da, belki de Chat’in bir versiyonu olan ‘Apple GPT’ şeklinde ortaya çıkacak.”

Akıllı telefonlar

Apple GPT’nin önümüzdeki haziran ayında Apple'ın Dünya Çapında Geliştiriciler Konferansı'nda, yani şirketin iOS 18 işletim programının yeni sürümünü ve üretken yapay zeka kartlarıyla desteklenen tamamen yeni bir ‘Siri’ sürümünü açıklayacağı etkinlikte duyurması bekleniyor.

iPhone'un (ve diğer akıllı telefonların), ‘Google Pixel 8’ telefonundaki fotoğraflara adanmış ‘En İyi Çekim’ özelliği gibi üretken yapay zeka işlevlerini yerine getirecek çiplerin ortaya çıkışına tanık olması planlandığı tahmin ediliyor. Bu özellik, kullanıcının bir fotoğraftaki birinin yüzünü önceki bir fotoğrafta gösterilen yüzle değiştirmesine olanak tanıyor.

Viars açıklamasının devamında “Pixel, Amazon ya da Apple telefonlardaki bu işlemciler, gülmeyen birinin fotoğrafını asla çekmeyeceğinizi garanti ediyor çünkü diğer beş fotoğrafı kullanarak düzenleyebilir ve mükemmel fotoğrafı oluşturabilirsiniz” dedi.

Bu yönde bir hareket, üretken yapay zeka şirketlerinin düşüncelerini, sağlayıcının işin tüm maliyetini ödemesi gereken bir kıtlık ekonomisinden, destekleyicinin bazı temel görevlerin gelişmiş cihaz tarafından ücretsiz olarak yerine getirileceğini varsayabileceği bir bolluk ekonomisine kaydırmasına olanak tanıyacağı ifade ediliyor.

Windows – 12

Beklentiler, bu yılın sonunda piyasaya sürülecek olan bir sonraki Windows sürümünün (büyük olasılıkla Windows 12) gelişmiş cihazlarda üretken yapay zekanın benimsenmesi için bir katalizör görevi göreceği yönünde. Yeni işletim sisteminin yerleşik yapay zeka özellikleri içermesi de bekleniyor.

Üretken zeka için çipler ve işlemciler

Üst düzey cihazlarda yapay zeka kullanımı, masaüstü ve görüntü manipülasyonunun ötesine geçiyor ve Intel gibi çip üreticileri, cihazlara gömülü üretken yapay zekanın benimsenmesini hızlandırmak için endüstriyel, perakende ve sağlık hizmetleri gibi dikeyleri hedefliyor.

Örneğin, perakendeciler satış noktası ve dijital tabela sistemlerinde katalizör çiplere ve yazılımlara sahip olurken, sanayiciler operasyonları izlemek ve kusurları tespit etmek için robotik ve lojistik sistemlerinde üretken YZ ile güçlendirilmiş işlemciler kullanabiliyor. Ayrıca, doktorlar stres zamanlarında teşhis için yardımcı obstetrik YZ’den faydalanabiliyor.

Intel, geçtiğimiz aralık ayında duyurduğu ‘Ultra Core’ işlemcilerinin, önceki işlemcilerine kıyasla gerçek zamanlı sonografi uygulamalarında yapay zeka performansını yüzde 22 ila 25 oranında artırdığını iddia ediyor.

AMD Yapay Zeka Pazarlama Departmanı Başkanı Brian Madden konuya dair şunları söylüyor:

"Yapay zeka destekli uygulamalar, bilgisayarlar, dizüstü bilgisayarlar, endüstriyel sensörler, bir restorandaki küçük bir sunucu ve hatta bir sunucu gibi birçok gelişmiş cihazda giderek daha fazla kullanılıyor."

Bilimsel ve tıbbi araştırma sistemleri

Madden, üretken yapay zekanın ‘son elli yılın en dönüştürücü teknolojisi’ olduğunu savunuyor.

Aslında, üretken yapay zeka bilim, araştırma, endüstri, güvenlik ve sağlık gibi çeşitli sektörlerde kullanılmaya başlandı. Yeni ilaçların ve testlerin keşfinde, tıbbi araştırmalarda ve tıbbi teşhis ve tedavideki ilerlemelerde çığır açıyor.

Örneğin, bir AMD müşterisi olan Clarius, doktorların fiziksel yaralanmaları teşhis etmesine yardımcı olmak için üretken yapay zeka kullanırken, Japonya'nın Hiroşima Üniversitesi, doktorların bazı kanser türlerini teşhis etmesine yardımcı olmak için AMD çipleri tarafından desteklenen yapay zekaya başvuruluyor.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe