Siz ve dijital ikiziniz yakında günlük hayatta

Dijital ayna dünyası

Siz ve dijital ikiziniz yakında günlük hayatta
TT

Siz ve dijital ikiziniz yakında günlük hayatta

Siz ve dijital ikiziniz yakında günlük hayatta

The Economist

Bundan birkaç yıl sonra doktora gittiğinizde, size sanal bir versiyonunuz eşlik edebilir. Vücudunuzun doktorun bilgisayar ekranında canlandırılabilen fiziksel bir modeli olan ve en son yaşamsal belirtilerinizi yansıtan bu dijital ikiziniz, doktorunuzun sağlık durumunuzla ilgili doğru bir teşhis koymasını kolaylaştıracak. Ayrıca, iyileşme oranlarını büyük ölçüde artıracak kişiselleştirilmiş ilaçların kullanılmasına ve tıbbi önlemlerin alınmasına da yardımcı olacak.

Tüm bunlar kulağa hayal gibi gelebilir, ama bunun için uygun zemin hazırlanıyor. Londra Queen Mary Üniversitesi'ndeki araştırmacılar, yaygın olarak görülen bir kalp rahatsızlığı olan atriyal fibrilasyon için farklı tedavi yöntemlerini değerlendiriyorlar. Bunun içinse hastaların kalplerinin bilgisayar simülasyonlarını kullanıyorlar. Çünkü bu deneyler gerçek bir insan kalbi üzerinde denenemeyecek kadar tehlikeli.

Bilim insanlarının kalpte olanları vücudun diğer organlarında olanlarla da ilişkilendirmesiyle elde edilen verilerin sanal bir insan vücudu oluşturacak şekilde birbirine bağlanabilir görünüyor.

Şarku’l Avsat’ın The Economist Bilim ve Teknoloji bölümünden aktardığına göre dijital ikizler her yerde karşımıza çıkmaya başladı. Jet motorlarının güvenliğini sağlıyor, Uber'in araç ağını takip ediyor ve Amazon'un kapsamlı tedarik zincirini, çevrimiçi perakendecilerin önümüzdeki birkaç yıl için satışları doğru bir şekilde tahmin etmesine yetecek kadar iyi kopyalıyor. Ayrıca yerel yetkililerin sel felaketinin etkilerine müdahale etmesine yardımcı oluyor ve otomobil üreticilerinin yol sürüş deneyimlerini ve kazaları simüle ederek yeni modellerin geliştirmesinde yıllar kazanmalarını sağlıyor. İkizler fabrikaların, şirketlerin ve tüm şehirlerin yönetilmesine yardımcı olmak için geliştiriliyor. Tüm bunlar, dijital ikizlere fiziksel dünyadaki benzerleri hakkında tahminlerde bulunma ve yeni verilere dayanarak davranışlarını düzenleme yeteneği veren yapay zekadaki son gelişmelerle hız kazanıyor.

Toplum için sunduğu kişiselleştirilmiş sağlık hizmetleri, daha kolay akan ve nefes alan şehirler ve iklim modellerinin ortaya koyduğu tehditler sayesinde çevresel felaketten nasıl kaçınılacağına dair bilgiler ve kılavuzlar gibi vaatler de baş döndürücü olabilir.

Dijital ikizler, önce fiziksel nesnelerin ve sistemlerin bilgisayar prototipleri olarak ortaya çıktı. Bilgisayarlar daha güçlü hale geldikçe, ikizler daha doğru ve karmaşık hale geldi. Karmaşık tasarım ve modelleme yazılımları, birçok fiziksel nesnenin gerçek dünyadan önce sanal dünyada şekillenmesi anlamına geliyor. Her türlü şeyi ölçebilen küçük sensörler, dijital ikizleri gerçek zamanlı verilerle besleyerek fiziksel ikizlerinde olup bitenleri yakalamalarını ve yansıtmalarını sağlar. Örneğin bir Formula 1 yarış arabası, Grand Prix sırasında dijital ikizinde güncellemeler yapan 250'den fazla sensöre sahip olabilir.

Yapay zeka (AI) kullanımı bunu çok daha ileri götürüyor. Sanal modellerin daha doğru ve karmaşık hale gelmesini sağlayarak gerçek dünyadaki faaliyetleri taklit ve optimize eder.

Bunun distopik bir geleceğin ayak sesleri olduğundan endişe edebilirsiniz. Duyarlı bir makinenin kitlesel sanal gerçeklik yoluyla insanlığı nasıl boyunduruk altına aldığını anlatan 1999 yapımı bir bilimkurgu filminde, filmin karakterlerinden biri olan Orpheus bu sanal sistemi “Matrix her yerde. Etrafımızı sarmış durumda” diye tanımlıyor.

sdvbrt

Gerçeklik sıradan bir şeydir ve hayal kadar heyecan verici değildir. Gerçek dünyadaki nesnelerin sembolik temsillerini yaratma fikri yüzyıllar öncesine dayanır. Eski uygarlıkların birçoğu, bazen mezarlara yerleştirmek için bazen de nesnelerin nasıl inşa edildiğini görmek için mimari modeller inşa etmiştir. On beşinci yüzyılda geliştirilen çift girişli muhasebe sistemi, bir tüccarın mali durumunun kağıt üzerindeki temsiliydi. 1940'lardan kalma hidrolik bir bilgisayar olan Phillips Makinesi, ulusal para akışının fiziksel bir ikiziydi. Şirketler elektronik tabloları ve tedarik zinciri yönetim sistemlerini kullanarak işlemleri kaydedebiliyor, envanteri takip edebiliyor, tahminler yapabiliyor ve gelecek senaryolarını modelleyebiliyor.

Günümüzde dijital ikizler bu süreci genişleterek insanların karmaşık sorunların üstesinden gelmesini kolaylaştırıyor. Adeta sanal kristal küreler gibi, insanların geleceğe bakmasına, sorunları gerçekleşmeden önce tespit etmesine ve çılgın fikirleri gerçek dünya sonuçları olmadan test etmesine olanak sağlayabilirler. İşletmeler için bu, daha iyi tasarımlar, daha akıcı süreçler ve daha az maliyetli hatalar anlamına geliyor.

Toplum için sunduğu kişiselleştirilmiş sağlık hizmetleri, daha kolay akan ve nefes alan şehirler ve iklim modellerinin ortaya koyduğu tehditler sayesinde çevresel felaketten nasıl kaçınılacağına dair bilgiler ve kılavuzlar gibi vaatler de baş döndürücü olabilir. Dijital ikizler bize kalelerin inşa edilebileceği ve gerçeğe dönüşmeden önce test edilebileceği bir kum havuzu sunuyor.

Dijital ikizler, bir kısmı yanlış, bir kısmı önyargılı ve çoğu mahremiyet ve denetimle ilgili endişeleri artıran veri yığınlarını silip süpürecek.

Peki sanal ikizlerimiz haydutluk yapabilir mi? Eğer kötü programlanırlarsa ya da hacklenirlerse bu mümkün. Önlenebilecek sağlık sorunları göz ardı edilebilir, kurumsal sistemler yanlış yerlere gönderilebilir ve kritik enerji santralleri tehlikeye atılabilir.

Dijital ikizler, bir kısmı yanlış, bir kısmı önyargılı ve çoğu mahremiyet ve denetimle ilgili endişeleri artıran veri yığınlarını silip süpürecek. Bunun yanında insanlar dijital ikizlere giderek daha fazla bel bağladıkça, sensörlerin algılayamayacağı şeyleri gözden kaçırarak öngörünün kaybedilmesi riski de söz konusu.

Ancak bu riskler dijital ikizlere özgü değil, her zaman olduğu ve olacağı gibi tüm yeni teknolojiler için de geçerli. Yapay zekanın kullanımına ilişkin mevcut tartışmalarda olduğu gibi bu endişeler de dikkate alınmalı.

Dijital ayna dünyasının ortaya çıkışı yeni soruları beraberinde getirecek olsa da potansiyel faydaları şimdiden görülmeye başladı bile.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe