Mesleklerimizi icra edebilen insansı yapay zeka robotlarıyla tanışın

Robert Waugh, yapay zekadaki mevcut atılımların "insan" androidlerdeki devrimin anahtarı olduğunu anlatıyor. Bunlardan bazıları halihazırda meslek sahibi

Tesla'nın robotu 2023 Dünya Yapay Zeka Konferansı'nda sergilenmişti. Elon Musk daha önce yapay zekanın "potansiyel açıdan nükleer silahlardan daha tehlikeli" olduğunu söylemişti (AFP)
Tesla'nın robotu 2023 Dünya Yapay Zeka Konferansı'nda sergilenmişti. Elon Musk daha önce yapay zekanın "potansiyel açıdan nükleer silahlardan daha tehlikeli" olduğunu söylemişti (AFP)
TT

Mesleklerimizi icra edebilen insansı yapay zeka robotlarıyla tanışın

Tesla'nın robotu 2023 Dünya Yapay Zeka Konferansı'nda sergilenmişti. Elon Musk daha önce yapay zekanın "potansiyel açıdan nükleer silahlardan daha tehlikeli" olduğunu söylemişti (AFP)
Tesla'nın robotu 2023 Dünya Yapay Zeka Konferansı'nda sergilenmişti. Elon Musk daha önce yapay zekanın "potansiyel açıdan nükleer silahlardan daha tehlikeli" olduğunu söylemişti (AFP)

İnsanların işini yapabilen insansı bir robot fikri, neredeyse 3 bin yıl öncesine, tanrı Hefaistos'un kendi yarattığı metalik varlıklardan yardım aldığı İlyada'ya kadar dayanıyor. Ama bugün, 2023'te bu konsept gerçeğe dönüşüyor.

ChatGPT'nin arkasındaki OpenAI firmasının finanse ettiği bir robotik girişimi, Avrupa ve Amerika'da güvenlik görevlisi olarak EVE robot cihazlarını çalıştırıyor. Burada insan operatörler sanal gerçekliği kullanarak "gövdenin" içine "adım atabiliyor".

Elon Musk'ın Tesla'sı da kendi robotu Optimus üzerinde çalışıyor. Zira Musk uzun vadede bunun, şirketin otomobil işinden "daha önemli olabileceğine" inanıyor.

Goldman Sachs, insansı robotların 15 yıl içinde yılda 150 milyar dolarlık bir pazar haline gelebileceğini ve 2025'e dek fabrikalarda çalışıyor olabileceğini öngörüyor.

2030'a gelindiğindeyse Goldman Sachs, robotların ABD'de imalat alanındaki öngörülen işgücü kıtlığının yüzde 4'ünü doldurabileceğine, "en pembe" senaryoda ise insansı androidlerin işgücü açığının yüzde 126'sını tamamlayabileceğine inanıyor. Sachs, insansı robotların 2025'ten 2028'e kadar fabrikalarda, 2030'dan 2035'e kadar da tüketiciye yönelik işlerde ekonomik açıdan uygulanabilir olacağını tahmin ediyor.

Yapay zekanın nükleer silahlardan daha tehlikeli olduğunu söyleyen Musk ise Tesla robotunun nihayetinde insanların yapabileceği her şeyi yapabileceğini savunuyor ve bu yıl üretime geçeceğini iddia ediyor.

Bir başka robot Phoenix, halihazırda Kanada'daki bir lastik mağazasında çalışıyor ve ürünleri paketleme, etiketleme, işaretleme ve katlama dahil olmak üzere 110 "insan" görevini doğru biçimde yerine getiriyor. Robo-C gibi diğer robotlar da mağazalarda müşteri hizmetlerinde çalışmak üzere üretildi ve 1X, robotları bakıcı olarak kullanılması için test etti.

Teknolojinin arkasındaki şirketler, robotların "insan işlerini" üstlenmeyeceğini, bunun yerine dünyanın dört bir yanında işgücü piyasasındaki, özellikle de kas gücüne dayalı işgücündeki kıtlıkları ve uzun vadede azalan doğum oranlarını telafi edeceğini savunuyor.

Sanctuary AI'ın insansı robotunun videoları, cihazın nesneleri topladığını, sıraladığını ve istiflediğini gösteriyor. Phoenix, bir insan gibi çalışmak ve "düşünmek" üzere, ayrıca sesli komutlara yanıt verebilecek şekilde geliştirildi.

Sanctuary AI'ın insansı robotu, "insan benzeri el becerisini" sergiliyor (Sanctuary AI / YouTube)
Sanctuary AI'ın insansı robotu, "insan benzeri el becerisini" sergiliyor (Sanctuary AI / YouTube)

Endüstride yaygın kullanılan robotların aksine Phoenix, tek bir iş yerine, verilen herhangi bir görevi yerine getirmek üzere tasarlandı. Sanctuary AI'ın CEO'su ve kurucu ortağı Geordie Rose, tek bir amaca yönelik robotlar yapmanın robotik şirketleri için bir "tuzak" olduğu görüşünde.

CEO, "Birçok yapay zeka ve robotik şirketinin aksine, Sanctuary AI, kuruluşların dünya çapında karşılaştığı büyük işgücü kıtlığını ele almaya odaklanıyor" diyor.

Robotlarımız insanlar gibi davranmak, hareket etmek ve düşünmek üzere tasarlandığından, bu robotlar boş kalan pozisyonları doldurmak, tehlikeli görevleri yerine getirmek ve insan işgücünü artırmak için endüstrilerde ve bölgelerde kullanılabilir.

Yeni nesil androidleri mümkün kılan önemli atılımlardan biri, nesneleri hassas bir şekilde kavrayabilen eller. Rose, robotun ellerinin beceri ve yumuşak temas bakımından "insan ellerine rakip" olduğuna inanıyor. Bu da örneğin Phoenix'in yiyecekleri plastik bir torbaya doldurabileceği anlamına geliyor. Zira bir "dokunsal" (titreşim) teknolojisi Phoenix'e dokunma hissi veriyor.

Rose, "Tüm işlerin yüzde 98'inden fazlasının insan elinin becerisini gerektirdiği göz önüne alınırsa, insan benzeri eller olmadan gerçekten kullanışlı bir insansı robot üretilemez" ifadelerini kullanıyor.

Yüksekliği 1,70 metreye ulaşan robot, saatte 4,8 kilometre hızla hareket edebiliyor.

Dünya doğum oranlarındaki düşüş ve nüfustaki yaşlanmayla uğraşırken Rose, bunun büyük bir işgücü sıkıntısına yol açacağını ve Phoenix gibi insansı robotların giderek daha gerekli hale geleceğini savunuyor. Yalnızca ABD'de bugün 9,8 milyon pozisyon boş kalmış durumda ama sadece 5,9 milyon işsiz var.

Önceki nesil robotlar da epey etkiliydi, ancak yetenekleri sadece belirli bir işle sınırlıydı. Örneğin, bir üretim robotu, bir araç şasisini çok hassas ve özel bir model izleyerek hareket ettirmek üzere tasarlanabilir.

Öte yandan Rose, tek bir amaca yönelik robotların görevi son derece iyi yerine getirmesinden ziyade, geleceğin işletmelerinin verilen herhangi bir işi yapabilecek robotlara ihtiyaç duyacağına inanıyor.

CEO, "Bir kişinin makul seviyede yapması beklenen her işi yapabilen bir robot inşa ediyoruz" diyor.

Yapabileceğimiz için değil, yapmamız gerektiğine inandığımız için.

Phoenix'e Carbon adlı bir yapay zeka yazılım sistemi tarafından "insan benzeri" zeka sağlanıyor. Bu, robotun komutlara İngilizce yanıt vermesini ve görevleri kendi yeteneğiyle tamamlamasına olanak tanıyor.

Rose, şirketin robotla "son derece gurur duyduğunu" ama "gösterinin gerçek yıldızının" altta yatan yazılım olduğunu söylüyor.

İnsansı robotlara giden yolculuk uzun ve engebeli olageldi. Honda, 1986'da iki ayaklı bir yürüyüş robotu tasarlamaya başlamış ve bundan 10 yıl sonra Asimo robotunun P2 prototipini tanıtmıştı. Asimo teknoloji fuarlarında ve diğer etkinliklerde yer alarak küresel çapta ün kazandı.

Honda, robotun insanların evlerinde yaşayabilecek kişisel bir asistan olmasını umarken, Asimo üzerinde çalışan Satoshi Shigemi, robotun "ev işlerinde yardım etmeye başlayan bir ilkokul çocuğu" olmasını umduğunu belirtiyor.

Robot en son Mart 2022'de insanların karşısına çıkmıştı ama (bir keresinde Barack Obama'ya futbol topu atmış olmasına rağmen) hiç satışa sunulmadı.

Yapay zeka ses teknolojisi şirketi Voices.ai'ın kurucusu ve CEO'su David Ciccarelli, yapay zekadaki mevcut atılımların insansı androidlerdeki devrime güç veren önemli bir faktör olduğunu dile getiriyor. Aynı zamanda insanların, ChatGPT tarzı uygulamalarla etkileşime girdikleri gibi droidlere de doğal İngilizceyle komut verebildiğini hatırlatıyor.

Ciccarelli, gözlemlerini, "Bugünün androidleri önceki on yıllardan çok daha sofistike hale geldikçe manzara değişiyor" diye ifade ediyor:

Sadece fiziksel görevleri yerine getirmekle kalmıyorlar, aynı zamanda gelişmiş programlamayla, bir zamanlar ancak insanlara özgü olduğu düşünülen karmaşık görevlerin üstesinden geliyorlar.

Ciccarelli, doğal konuşmalar yapabilen ve mağazalarda müşteri hizmetlerinde kullanılabilecek başka bir insansı robota (Promobot'tan Robo-C2) işaret ediyor. EVE ve Phoenix'in aksine, Robo-C2'nin yüzü insana benzeyecek şekilde yapıldı. Şirket, "duygularını ifade edebildiği" ve gerçek ya da kurgusal herhangi bir kişi gibi görünebildiği için övünüyor.

Ciccarelli, "Yapay zeka patlaması ve insansı robotlar el ele gidiyor" diyor:

Voices.ai'da ses tanıma için bir yapay zeka modeli geliştirirken, sistemin insan konuşmasındaki nüansları yakaladığını görmek büyüleyiciydi ve yapay zekanın işyerlerimizi yeniden şekillendirmede insansı robotlara güç verme potansiyelini gösteriyordu.

Birmingham City Üniversitesi'nde yapay zeka profesörü Atıf Azad da yapay zekadaki hızlı ilerlemelerin, sensörlerden toplanan bilgilerle birlikte, robotların insanlarla veya diğer robotlarla ekipler halinde çalışmasını sağlayacağını belirtiyor.

Azad, "Derin öğrenme gibi yapay zeka teknikleri, nesneleri tanımak ve onların farklı örneklerini tanımlamak, konuşmayı ve doğal dili anlamak ve insan hareketlerini doğru yorumlamak gibi kritik görevlerde devrim yarattı" ifadelerini kullanıyor.

Profesör Azad, işyerinde robotların insan "meslektaşlarıyla" birlikte çalışmalarını sağlamak için yakındaki bilgisayar sistemlerinden ve sensörlerden bilgi toplayacağı görüşünde.

Yapay zeka alanındaki şirketler de robotiğe yatırım yapıyor. Norveçli 1X girişimi, ChatGPT'yi tasarlayan OpenAI'ın girişim fonu tarafından finanse edildi, bu da şirketin OpenAI teknolojisine erken erişime sahip olduğu anlamına geliyor.

Şirketin CEO'su Bernt Bornich, robotları "vücut bulmuş yapay zeka" diye nitelendirdi.

1X'in EVE robotu. Şirket, robotlarının güvenlikten bakım ve destek işlerine kadar çok çeşitli uygulama alanlarında kullanılmasını umuyor (1X / YouTube)
1X'in EVE robotu. Şirket, robotlarının güvenlikten bakım ve destek işlerine kadar çok çeşitli uygulama alanlarında kullanılmasını umuyor (1X / YouTube)

Android EVE, tümüyle insan vücudunun yaptığı gibi çalışacak şekilde tasarlandı. Robotun içindeki kas ve tendonları andıran sentetik halatlar kutuları insanla ürkütücü derecede benzer şekilde paketlemesini sağlıyor. Bu teknoloji, robotun kendi gücünü kontrol edebildiği ve bir şeyleri kırma veya çevredekileri öldürme olasılığının düşük olduğu anlamına geliyor. 1X'in iletişim başkanı Hege Nikolaisen, insansı robotların daha yaygın kullanılmasının önüne geçen kilit engellerden birinin bu olduğunu söylüyor.

Bir robot tarafından öldürülen ilk insan 1979'da Ford fabrikasında bir tonluk transfer aracının altında kalarak hayatını kaybetmişti. Nikolaisen'e göre, robot üretmenin önündeki önemli bir engel, fabrika ortamından çıkabilecek kadar güvenli bir teknoloji geliştirmek.

"Hepimiz yıllardır robotların yakında bizim için çalışmaya başlayacağını duyuyoruz ama bu şimdiye kadar hiç gerçekleşmedi" diyen Nikolaisen, şöyle devam ediyor:

Androidlerimiz güçlü ancak enerji açısından verimli motorlar kullanıyor. Böylece yüksek hız ve kuvvetin birleşimiyle çevreye zarar vermeksizin çevreleriyle güvenli biçimde etkileşime girebiliyorlar.

Nikolaisen, EVE robotunun nesneleri alıp onlarla etkileşime girebildiğini ve halihazırda biri Avrupa'da diğeri Amerika'da olmak üzere iki tesiste güvenlik görevlisi olarak çalıştığını söylüyor. Bu robot gerektiğinde (örneğin, bir güvenlik vukuatı varrsa) sanal gerçeklik aracılığıyla insan gözetmenler tarafından kontrol ediliyor.

Öte yandan çoğu zaman koruduğu tesisin etrafında kendi kendini kontrol ederek dolaşıyor: "Ellerini" kullanarak kapıları açabiliyor ve hatta asansörlere binerek düğmelere basabiliyor.

Ayrıca bir gözetmen birden fazla EVE robotunu kontrol edebiliyor.

Nikolaisen, "Kontrol merkezinde oturan bir güvenlik görevlisi, ticari bir binada otonom devriye gezen ve dolaşan bir EVE android filosunu işletir" diyor:

Kurallara aykırı bir olay varsa veya operatör bir görevi yerine getirme ihtiyacı duyarsa; robotun görüş yeteneğini ve vücudunu kontrol altına almak için gözlükleri ve kumandaları kullanarak androidi uzaktan çalıştırmak üzere senkronizasyon modunu açar. Daha sonra androidi kullanarak telebulunma (telepresence / sanal gerçeklik teknolojisini kullanarak makinelerin uzaktan yönetilmesi -çn.) sırasında bükme, kavrama, bakma veya iletişim kurma davranışlarında bulunabilir.

Şirket, robotların birçok farklı sektörde kullanılabileceğini umuyor.

Nikolaisen, "Androidler gözetim, lojistik, perakende ve/veya depolarda kullanılabilir" ifadelerini kullanıyor. Paketleme, sıralama, taşıma, baskı, temizleme veya gözetleme gibi tipik, sıkıcı ve tekrarlayan görevleri yerine getirebilirler.

Birkaç on yıl içinde androidleri kişisel asistan olarak kullanmanın mümkün olacağına inanıyoruz.

Ciccarelli'ye göre, ileri vadede, bugünkü hızlı yapay zeka büyümesinin insansı robotlardaki patlamayla paralel gerçekleşmesi muhtemel. Zira doğal dili işleyen robotlar, yapay zekayı da besleyen keşiflere güç veriyor.

Ciccarelli, "Yapay zekadaki ilerlemeler, bu robotların çevrelerini anlamalarını ve gezinmelerini, nesneleri tanımalarını ve karmaşık görevleri yerine getirmelerini mümkün kıldı" diye ekliyor:

Bu robotların devam eden gelişimi, yapay zeka araştırmalarını ve uygulamalarını daha da ilerletebilecek yeni veriler ve kullanım alanlarına dair senaryolar üreteceği için muhtemelen süregelen yapay zeka patlamasına katkıda bulunacak. Biri diğerini ileriye doğru iterek kendi kendini güçlendiren bir ilerleme döngüsü yaratıyor.

Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe