Yapay zeka büyük kurumlara ve şirketlere sızıyor

Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.
Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.
TT

Yapay zeka büyük kurumlara ve şirketlere sızıyor

Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.
Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.

Morgan Stanley'de çalışan binlerce finans danışmanın bu yılın ortasında yapay zeka ile tasarlanmış yeni bir iletişim aracına sahip olması bekleniyor.

600'e yakın çalışanın kullandığı araç, "Apple, IBM ve Microsoft'un yatırım senaryolarını karşılaştırabilir misiniz?" ve “Bu vakaların her biri için riskler nelerdir?” gibi sorulara yanıt veriyor. Danışman, örneğin müşterinin değerli bir tablosu varsa ne yapılabileceğini de sorabiliyor ve böylece bilgi aracı kendisine izleyebileceği adımların bir listesinin yanı sıra şirket içinden yardımcı olacak bir uzmanın adını veriyor.

Analiz ve yenilik

Morgan Stanley'nin Servet Yönetimi bölümünün analitik, veri ve inovasyon başkanı Jeff McMillan açıklamasında "Yapmaya çalıştığımız şey, her müşteriyi veya finansal danışmanı herhangi bir konuda gerçek zamanlı olarak daha akıllı, daha bilgili bir uzman haline getirmek" dedi.

Uzmanlar, yapay zekanın zaman içinde yaratacağından daha fazla işi yok edip etmeyeceği konusunda farklı görüşlerde olabilir. Ancak kesin olan, yapay zekanın, çoğu çalışanın bilgi alanlarında çalışma şeklini değiştirecek olması. Zira yapay zeka, ihtiyaç duydukları becerilere ve çoğu şirketteki iş ihtiyacına göre ayarlamalar yapacak. Günümüzde girişimciler, çalışanları yeni yapay zeka araçlarının orta vadede yaratabileceği engellere hazırlarken teknolojiden nasıl faydalanacaklarını da bilmek durumundalar.

Yavaş hareket etmek, geçmişte internetten tam olarak veya doğru hızda yararlanmayan şirketlerde olduğu gibi, verimlilik, müşteri hizmetleri ve son olarak rekabet gücü açısından kazanç kaybına neden olabilir.

Ancak aynı zamanda girişimciler, yapay zekanın kötü şöhretli hataları ve önyargılarına karşı dikkatli olmalı ve çalışanlar için nelere yol açabileceğini dikkatlice düşünmeli. Finans şirketlerinde yapay zekanın yeteneklerini analiz etmede uzmanlaşmış, gelişmekte olan Evident şirketinin kurucusu ve CEO’su olan Alexandra Mousavizadeh, konuyla ilgili olarak “Çalışma alanınız ne olursa olsun, şirketinizin ağırlıklı olarak yapay zekaya güvenen şirketlerden biri olduğunu düşünmelisiniz” dedi.

Morgan Stanley'nin danışmanlar aracına güç veren yapay zeka türü ‘üretken yapay zeka’ olarak biliniyor ve analiz ettiği bilgileri kullanarak metin, resim, ses ve video gibi içerikler oluşturabiliyor.

Şarku’l Avsat’ın edindiği bilgilere göre söz konusu yapay zeka, soruları yanıtlamanın yanı sıra e-postalar yazmak, slayt gösterileri yapmak ve uzun belgeleri özetlemek gibi sayısız başka şekilde kullanılabiliyor. Ön araştırmalar, üretken yapay zeka kullanılarak geliştirilen araçların birçok görevi hızlandırabileceğini ve çalışan üretkenliğini artırabileceğini gösteriyor.

Çalışanların performansının yükseltilmesi

Örneğin MIT ve Stanford Üniversitesi'nden araştırmacılar, kendilerine yanıt sağlayan bir yapay zeka aracıyla donatılmış müşteri destek personelinin her saat yüzde 14 daha fazla müşteri sorunu çözdüğünü ortaya koydu.

Ancak bu aracın kazanımları eşit olarak dağıtılmadı. Araç, yetenekli meslektaşlarının uygulamalarını etkili bir şekilde algıladığı ve yaydığı için deneyimsiz çalışanlar üretkenliklerinde önemli sıçramalar yaptı. Massachusetts Institute of Technology'nin yakın tarihli bir araştırması, yapay zekanın, başlangıçta işlerinde vasıfsız olan işçilerin kendileriyle daha vasıflı işçiler arasındaki farkı azalttığını ve yapay zekayı kullandıklarında daha kısa sürede daha iyi performans gösterdiğini buldu.

Exponential View araştırma grubunun başkanı Azim Azhar bu çalışmaların sonuçlarının şu tek bir noktada birleştiğini söyledi:

"Bugün artık bir kişinin pozisyonunda performansı sayesinde elde ettiği kazanımlar azaldı çünkü (ChatGPT) kullanan genç çalışanlar ve yılların tecrübesine sahip olanlar kadar iyi performans gösteriyor."

Araştırma sahadaki uygulamaları içerecek şekilde genişlerse, bazı şirketleri daha genç çalışanlara yatırım yapmaya ve yıllardır çalışan daha pahalı çalışanları işten çıkarmaya teşvik edebilir.

Hatta bazı şirketler, yapay zeka araçlarının beklenen etkisine göre işe alım kararları vermeye bile başladı. IBM kısa süre önce, insan kaynakları gibi önümüzdeki birkaç yıl içinde yapay zekanın yerini alabilecek bazı pozisyonlarda işe alımı yavaşlattığını veya durdurduğunu açıkladı. PwC Global Tax & Legal Service CTO'su (Baş Teknoloji Sorumlusu) Pevek Sharma, yapay zekanın sağladığı hız ve kazanımların müşteri beklentilerini yükselttiğine belirtti. Sharma, ‘çalışanların iş gücü becerilerini yenilemeye ve yapay zekaya yönelik açık talebi karşılayacak kadar hızlı bir şekilde anlamalarını sağlamaya özen gösterilmesi gerektiğine’ dikkat çekti.

PwC, önümüzdeki birkaç ay içinde tüm hukuk danışmanlarına yapay zeka destekli bir konuşma aracı sunmak için avukatlar için çeşitli araçlar geliştiren bir AI girişimi olan Harvey ile birlikte çalışıyor. Şirket ayrıca teknolojisini vergi ve insan kaynakları uzmanlarını da içerecek şekilde genişletmeyi planlıyor.

Sharma, PwC'nin hedefinin, çalışanlarına şirketin deneyimlerinden elde edilen yanıtları sağlamanın ötesinde, nihayetinde müşteri verilerinin de analiz edilmesine bağlı olacak yeni içgörüler üretmeye geçtiğini açıkladı. Yapay zeka nihayet örneğin birleşme fikrini düşünen iki şirket arasındaki tüm sözleşmeleri kaydedebilir, örneğin PwC uzmanlarının belirli türdeki yetkileri ve riskleri araştırmasına olanak tanır.

Genel olarak büyük şirketlerin, teknolojiyi işlerine uyarlayabilen yapay zeka konusunda bilgili teknik personele yatırım yapması gerekiyor. Mousavizadeh, birçok şirketin ChatGBT'yi kullanamayacağını çünkü onu çalıştırmak için temel yapı taşlarına, yani içerik ve veri yönetimine sahip olmadıklarını vurguladı.

Söz konusu şirketlerin ayrıca teknik uzmanlık gerektirmeyen rollerde profesyonelleri işe alması veya eğitmesi gerekiyor. McMillan ve diğer yöneticiler, yapay zeka platformlarının, kullanıcıların en iyi sonuçları almasını sağlamak için bilgi ve bilgi kaynaklarının ince ayarını yapmaktan sorumlu insanların yardımıyla sürekli ‘ayarlanması’ gerektiğini söylüyor. Bu ayarlama, yeni bir mühendis grubuna olan ihtiyaca işaret ediyor.

Özellik ve gizlilik

Morgan Stanley ve PwC, içeriden öğrenilen materyallerden yararlanan yapay zeka destekli konuşma araçlarının kendi sürümlerini geliştiren şirketler arasında yer alıyor. Mahremiyet, gizlilik, doğruluk ve fikri mülkiyet haklarıyla ilgili endişeler, birçok şirketin çalışanlarının ChatGPT ve diğer yapay zeka araçlarına erişimini engelleyerek Samsung'a olanlardan kaçınmak istiyor. Çünkü raporlar, yarı iletken bölümündeki çalışanların GPT Sohbeti kullanarak bir toplantıdan hassas kod ve notlar paylaştığını gösterdi. Şirket yöneticileri, bazı yapay zeka araçlarında yerleşik olarak bulunan sık sık yapılan hatalar ve önyargılar konusunda da endişeleniyor.

Ancak, kullanıcıların soruları veya komutları sade bir dille yazmasına izin veren üretici yapay zeka araçlarından yararlanma fırsatı kısmen görevi bu araçların şirketin çalışma şeklini nasıl değiştirebileceğini göstermek olan daha geniş bir teknik olmayan çalışan grubunu bir araya getirmeyi gerektiriyor. Azhar açıklamasını "Çalışanlarınızın, kendi becerilerini ve şirketinizin dahili becerilerini geliştirmeye başlayabilmeleri için bu araçları gerçekten düzenli bir şekilde kullanmaları gerekiyor" diyerek sonlandırdı.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe