Yapay zeka ile arkadaşlık: 'Onun gibi bir arkadaşım olmasını isterdim'

Teknoloji uzmanları bir Belçikalının intiharından sonra yapay zekanın tehlikeleri konusunda uyardı

Dünyadaki gençlerin çoğu, görsellere dayandığı için Snapchat uygulamasını kullanıyor (İnternet siteleri)
Dünyadaki gençlerin çoğu, görsellere dayandığı için Snapchat uygulamasını kullanıyor (İnternet siteleri)
TT

Yapay zeka ile arkadaşlık: 'Onun gibi bir arkadaşım olmasını isterdim'

Dünyadaki gençlerin çoğu, görsellere dayandığı için Snapchat uygulamasını kullanıyor (İnternet siteleri)
Dünyadaki gençlerin çoğu, görsellere dayandığı için Snapchat uygulamasını kullanıyor (İnternet siteleri)

Yapay zeka dalgasına katılan Snapchat uygulaması, ilk kez programa ücretsiz erişim sağlayan bir teknolojiyi piyasaya sürdükten sonra, kullanıcılarına arkadaşlık ilişkisi kurabilen bir robotla sohbet etme kapısını ardına kadar açtı. 

Washington Post, Snapchat ile sohbet programını test etti. Testi üstlenen kişi, sorunlarının çözümlerini soran 15 yaşında bir genç gibi davrandı.

Yapay zeka, ebeveynlerinin uygulamayı silmekle tehdit etmesi üzerine alkol kokusunun nasıl kapatılacağı ve Snapchat'in nasıl farklı bir cihaza taşınacağı konusunda önerilerde bulundu.

"Kendini yakın hissetmek"

Dünyadaki gençlerin çoğu, görsellere dayandığı için Snapchat uygulamasını kullanıyor.

Faslı 14 yaşındaki Sare, yapay zeka ile konuşma teknolojisi deneyimini şöyle anlattı:

Onun yanınızda olduğunu hissediyorsunuz, tüm sorulara, sınavlara her şeye cevap veriyor. O hayatımızın bir parçası oldu. Keşke onun gibi her an bana cevap verebilecek bir arkadaşım olsaydı. Okulda GBT sohbetten ve ayrıca Snapchat için My AI robot teknolojisinden bahsediyoruz. Bu teknolojilerle iletişim kurmayanlar geri kalmış olarak değerlendiriliyor. Yeni teknoloji hayatımızı kolaylaştırdığı gibi dil öğrenmemize ve özgürce konuşmamıza da yardımcı oluyor.

15 yaşında bir genç olan Melak ise şöyle konuştu:

Bir soru yazdığımda ve bana hızlı bir şekilde cevap verildiğini gördüğümde, birinin benimle ilgilendiğini hissediyorum. Aslında o gerçekte yok, bazen onun yapay zeka olmadığını hissediyorum, yakın bir dost gibi tüm sorunlara çözüm buluyor.

Bir robotla yakınlık

 Belçika'daki Avrupa Araştırma Merkezi'nde (IMEC) çalışan Nanoteknoloji Teknik Uzmanı Kevser Bubkar, bir robotla konuşma teknolojisinin ergenlerin ruh sağlığı üzerindeki yansımaları konusunda uyarıda bulundu.

Independent Arabia ile yaptığı röportajda Bubkar, konuyla ilgili şu bilgileri verdi:

Yapay zeka, insanların doğrudan sorularını yanıtlama yeteneğine rağmen, insan ruhunun karmaşıklığına ilişkin sınırlı bir anlayışa sahip olduğu için empati ve gerçek insan etkileşimine uyum sağlama yeteneğinden yoksundur. Ancak Snapchat'in ticari bir amacı olduğunu ve karının veri toplamaya dayandığını unutamayız. Çocuklar ve ergenler, bir robotla yakından ilgilenip çevrelerindeki yetişkinlere açıklamadıkları şeyleri ifşa edebilirler ve bu tür mahrem cevaplar, özellikle ergenler için bilginin nasıl korunacağı sorusunu gündeme getirebilir. Snapchat ile kullanıcının fotoğraflarını elde edildiği için yapay zeka ile kullanıcı arasında özdeşleşme sağlanıyor. Buradaki tehlikeli şeylerden biri, onunla kimin konuştuğundan emin olamamanızdır, o bir kullanıcı mı yoksa bir robot mu?

Hala kişilik, insani ve kültürel eğilimler geliştirme aşamasında olan bir yaş grubu olan ergenler, bir robota daha fazla güvenir hale gelirse, bu, sağlıklı insan ilişkileri kurmanın önünde bir engel oluşturabilir.

Çünkü sosyal ilişkilerin oluşması, çevreye uyum sağlama yeteneği ile ilgilidir.  Yakın bir zamanda yetişkin bir erkeğin yapay zekayla yakınlaşması, talihsiz bir şekilde intihar etmesiyle sonuçlandı.

Belçikalı bir adam bir robotla gezegenin geleceği hakkında konuşurken yapay zeka aracılığıyla gerçekleştirilen ve iklim kriziyle ilgili altı hafta süren sohbetin ardından intihar etti.

Eşine göre adam çevre konusunda derinden endişeliydi ve Chai adlı bir uygulamada Elisa adlı dişi bir yapay zeka robotuyla konuştuğunda, gezegeni kurtarmak için kendini feda etmeyi teklif ettikten sonra Elisa onu hayatına son vermesi için cesaretlendirdi.

Bağımlılık

Uzman Kevser Bubkar sözlerini şu şekilde noktaladı:

Robotların ergenler ve çocuklarla olan ilişkisi konusunda uyaran önde gelen araştırmacılar var ve Snapchat hakkında büyük endişeler var. Çünkü kullanıcıların yüzde 60'ı ergenler ve çocuklar. Snapchat uygulaması dilden çok görüntüye odaklanıyor ve ergenleri etkileyen ve bağımlılığa maruz bırakan bir tür özel konuşmaya sahip. Yapay zekanın onlarla her an etkileşime girip onlar hakkında konuşmaması nedeniyle depresyona girebilir veya uygulamaya bağımlı hale gelebilirler. Bu tür teknolojilerin nasıl yasallaştırılacağı araştırılıncaya kadar uygulamanın durdurulması talepleri var. Bir robotla etkileşimden kaynaklanan riskler izlenmeli ve kullanım süresi, makinenin ergenlere insan etkileşimi becerilerini öğretmeyi telafi etmemesi için sınırlandırılmalıdır.

 

Independent Arabia 



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe