Bill Gates’e göre herkesin yapay zekaya dayalı kişisel asistanı olduğunda dünya nasıl görünecek?

Kimi yapay zekayı görkemli bir gelecekle ilişkilendirirken kimi ise insanlığın bekasına yönelik tehdit olduğu görüşünde.

Bill Gates, herkesin yapay zekaya dayalı kişisel bir asistana sahip olması durumunda dünyamızın nasıl görüneceğine dair detaylı bir tablo çizdi.
Bill Gates, herkesin yapay zekaya dayalı kişisel bir asistana sahip olması durumunda dünyamızın nasıl görüneceğine dair detaylı bir tablo çizdi.
TT

Bill Gates’e göre herkesin yapay zekaya dayalı kişisel asistanı olduğunda dünya nasıl görünecek?

Bill Gates, herkesin yapay zekaya dayalı kişisel bir asistana sahip olması durumunda dünyamızın nasıl görüneceğine dair detaylı bir tablo çizdi.
Bill Gates, herkesin yapay zekaya dayalı kişisel bir asistana sahip olması durumunda dünyamızın nasıl görüneceğine dair detaylı bir tablo çizdi.

Yapay zekanın uluslararası alandaki yankısı

Şu an yapay zekayla ilgili coşku o kadar büyük ki Collins Dictionary internet sitesi yapay zekayı (AI) yılın kelimesi olarak seçti ve onu taçlandırdı. Bu coşku öyle büyük ki konuyla ilgili haberleri yapay zekanın görkemli bir gelecek vaat ettiğine ya da insanlığın bekasını tehdit ettiğine kafa yoran teknoloji ve dünya liderlerinin açıklamalarına maruz kalmadan okuyup geçmek mümkün değil. Ancak teknoloji sektörü coşkusuyla olduğu kadar balonlarıyla da ünlüdür.

O halde, yapay zekayla ilgili bitmek bilmeyen konuşmalar NFT'lerin ya da WeWork'ün biraz daha somut bir versiyonu mu? Bazı ciddi ve bilgili insanlara göre hayır, değil.

devrm

‘Elektrik devrimine’ benzetiliyor

ABD merkezli teknoloji ve medya haberleri ağı The Verge geçtiğimiz günlerde eski ABD Başkan Obama ile yapay zeka üzerine bir sohbet gerçekleştirdi. Yapay zeka devrimi elektriğin tüm dünyada kullanılmaya başlanmasına benzeten Obama, “Bir yöneticiyle konuştum ve ona, ‘Peki, bu teknolojinin dönüştürücü olacağını düşündüğünüzü söylediğinizde, bana bir benzetme yapabilir misiniz?’ diye sordum. Bana bana ‘Bu konuyu ekibimle oturup konuştuk. Beyin fırtınası yaptıktan sonra belki de en iyi elektriğe benzetebileceğimize karar verdik’ dedi. Ben de ‘Evet, elektrik' diye düşündüm. Bu oldukça büyük bir olaydı.”

Yapay zekayla ilgili coşku şu an zirvesine ulaşmışken, akıllı insanlar yapay zekanın yalnızca bilgisayarlarımızı kullanma şeklimizi değiştirmeyeceğini, aynı zamanda yaşama şeklimiz de değiştireceğini düşünüyorlar.

Bill Gates: Yapay zeka çağında hayat

Bir uygulamayı açıp komut yazmak, kıyafetlerinizi bir varil suda sabunla yıkamak kadar eski bir yöntem haline geldiğinde gelecek nasıl görünecek? Yapay zeka çağında bilişim neye benzeyecek?

Başka bir akıllı adam konuyu açıklıyor. Bu durumda Bill Gates, yapay zeka çağında bilişimin (ve hayatın) nasıl görüneceğine dair görüşünü bu hafta blogunda paylaştı. Eğer konu gerçekten ilginizi çekiyorsa tamamı okunası, detaylı ve uzun bir makale kaleme aldı.

Mevcut bilgisayar programlarının sınırları

Makalesinde özetle gelecekte herkesin yapay zeka tabanlı kişisel asistana sahip olacağında ısrar eden Gates, şunları söylüyor:

“Günümüzde bilgisayarda herhangi bir görevi gerçekleştirmek için cihazınıza hangi uygulamayı kullanmak istediğinizi söylemeniz gerekiyor. Yani, örneğin bir iş teklifi taslağı hazırlamak için Microsoft Word ya da Google Dokümanlar gibi programları kullanabilirsiniz. Ancak bu iki program e-posta göndermenize, selfie paylaşmanıza, verileri analiz etmenize, parti planlamanıza ya da sinema bileti satın almanıza yardımcı olamaz. En iyi internet siteleri bile işinizi, özel hayatınızı, ilgi alanlarınızı ve ilişkilerinizi tam olarak algılayamaz. Bu bilgileri sizin adınıza bir şeyler yapmak için kullanma yeteneği oldukça sınırlıdır. Bunu bugün ancak başka bir insanla, örneğin yakın bir arkadaşınızla ya da kişisel asistanınızla başarabilirsiniz.”

Kişiselleştirilmiş yanıtlar için geliştirilen akıllı cihazlar

Gates, makalesinde şöyle devam ediyor:

“Ancak önümüzdeki beş yıl içinde bu durum tamamen değişecek ve farklı görevler için farklı uygulamalar kullanmanıza gerek kalmayacak. Tek yapmanız gereken, cihazınıza günlük dilde ne yapmak istediğinizi söylemek olacak. Program, paylaşmayı seçtiğiniz bilgi miktarına bağlı olarak kişisel yanıtlar verebilecek. Çünkü hayatınızla ilgili gelişmiş ve zengin bir anlayışa sahip olacak. Yakın gelecekte internet bağlantısı olan herkes, günümüz teknolojisinin çok ötesinde yapay zekayla desteklenen bir kişisel asistana erişebilecek.”

Bunlar, teknoloji şirketlerinin onlarca yıldır hayalini kurduğu, ‘ajan’ olarak bilinen yapay zeka sistemlerinden başka bir şey değil. Microsoft'un animasyonlu ataç asistanı Clippy bunun ilk örneklerden biri.

Şarku’l Avsat’ın edindiği bilgilere göre Gates, yapay zekanın gelecekte hisse senedi satın alma tavsiyesi vermenin ötesine geçerek gerçek anlamda bireysel bir yardımcı olma yönünde gelişeceğine kesin gözüyle bakıyor.

Bu akıllı ajanlar, etkinliklerinizi hatırlayıp davranışlarınızdaki niyetleri ve kalıpları tanımlayabilir.

AA

Ajanlar artık daha akıllı

Gates, makalesinde şu ifadelere yer verdi:

“Ajanlar artık daha akıllı. Proaktiftirler ve siz istemeden önce önerilerde bulunabilirler. Uygulamalar arasında görevleri yerine getirirler. Etkinliklerinizi hatırladıkları ve davranışlarınızdaki niyetleri ve kalıpları tanıdıkları için zaman içinde gelişirler. Bu bilgilere dayanarak, ihtiyaç duyduğunuzu düşündükleri şeylerle ilgili önerilerde bulunurlar. Ancak elbette son kararları her zaman siz vereceksiniz.”

Zorluklar ve engeller

Ancak halen birçok zorluk söz konusu. Örneğin, herkesin her yerde hazır bir kişisel asistana sahip olması sağlık hizmetlerinden kişisel üretkenliğe kadar belirli alanları nasıl etkileyecek? Bu soru, Gates'in büyüleyici makalesinin geri kalanının büyük bir bölümünü kapsıyor. Bu yüzden açıkladığı vizyonun gerçekleşmesinin önünde teknik ve düzenleyici zorluklara derinlemesine bir dalış yapıyor.

Ancak tüm bu zorluklara rağmen Gates de yapay zekadan yana olan Obama ve danışmanlarıyla aynı fikirde gibi görünüyor. Yapay zeka gerçekten de hayatımızı elektriğin kullanılmaya başlanması kadar köklü bir şekilde değiştirecek. Bu yüzden kemerlerinizi bağlayın ve bunun işinizi nasıl etkileyebileceğini düşünmeye başlayın.

*Tribune Media, Mansueto Ventures



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe