Google yapay zekasının silahlarda kullanılmasının önünü açtı

2018'de yapay zekasının silahlarda kullanımını yasaklayan şirket, geçen ay "genel zarar verme ihtimali olan" hiçbir şey için kullanılmayacağında ısrar etmişti.

Fotoğraf: AP
Fotoğraf: AP
TT

Google yapay zekasının silahlarda kullanılmasının önünü açtı

Fotoğraf: AP
Fotoğraf: AP

Google'ın daha önce yapay zeka sistemlerinin silah ve gözetimde kullanılmasını yasaklayan etik kurallarını kaldırdığı bildirildi.

Washington Post'un haberine göre teknoloji devi, daha 30 Ocak'ta yapay zekasının silah, gözetleme ve "genel zarara neden olan veya olması muhtemel" diğer teknolojilerde kullanılmayacağını söylemişti.

The Independent cevap hakkı için Google'la iletişime geçti.

Salı günü yapay zeka alanında çalışan üst düzey şirket yetkililerinin kaleme aldığı blog yazısında şirket, "giderek karmaşıklaşan jeopolitik ortamda yapay zeka liderliği için küresel rekabet yaşandığını" savundu.

Yazıda, "Demokrasilerin özgürlük, eşitlik ve insan haklarına saygı gibi temel değerlerin rehberliğinde yapay zeka gelişimine öncülük etmesi gerektiğine inanıyoruz" dendi.

Ve bu değerleri paylaşan şirketlerin, devletlerin ve kuruluşların insanları koruyan, küresel büyümeyi ve ulusal güvenliği destekleyen bir yapay zeka yaratmak için birlikte çalışması gerektiğine inanıyoruz.

2018'de şirket, ABD Savunma Bakanlığı'nın drone videolarını analiz etmek için Google teknolojisini kullanmak üzere yaptığı sözleşme nedeniyle şirket içi protestolarla karşılaştıktan sonra, yapay zekasının silahlarda kullanılmasını yasaklamıştı.

Görsel kaldırıldı.
Google, Pentagon için drone videolarını analiz eden geçmiş çalışmaları nedeniyle çalışanlarının protestolarıyla karşılaşmıştı (AP)

Google'da yaşandığı bildirilen değişiklikler, teknoloji endüstrisinde süregelen daha büyük bir değişimle paralellik gösteriyor. Elon Musk gibi birçok teknoloji lideri siyasi olarak sağa kayarken, ABD savunma ve gözetim yetkilileriyle ortaklık kurma isteğinde artış var.

Aralık ayında ChatGPT üreticisi OpenAI, drone'lara karşı askeri savunmada kullanılmak üzere teknoloji geliştirmek için bir başka teknoloji şirketi Anduril'le ortaklık kurduğunu duyurmuştu.

OpenAI daha önce teknolojisini askeri kullanımdan men etmişti ancak geçen yıl politikalarını değiştirerek bazı işbirliklerine izin verdi.

OpenAI, Wall Street Journal'a yaptığı açıklamada Anduril'le geliştirilen teknolojinin sadece savunma uygulamalarında kullanılacağını belirtmiş ve CEO Sam Altman, şirketinin "teknolojinin demokratik değerleri korumasını sağlamayı" amaçladığını söylemişti.

Bir başka büyük yapay zeka şirketi Anthropic, savunma kurumlarına hizmet vermek için teknoloji firması Palantir ve Amazon Web Services'le işbirliği yapıyor.

Palantir, Anduril, OpenAI, Saronic ve Scale AI'ın, Boeing ve Lockheed Marin gibi eski yüklenicilere meydan okumak amacıyla Pentagon'un ana sözleşmelerine teklif vermek üzere konsorsiyum oluşturmak için Musk'ın havacılık firması SpaceX'le görüşmelerde bulunduğu bildiriliyor.

Geçmişte Demokrat adaylarla aynı safta yer almasına rağmen, teknoloji sektörü yeni yönetimle birlikte çalışmak için yoğun çaba sarf ediyor. Teknoloji şirketleri Trump'ın göreve başlama fonuna milyon dolarlık bağışlarda bulundu ve Meta, Amazon, Apple ve Google CEO'ları geçen ay yemin törenine katıldı.

Bu değişimi kimse, geçmişte Demokratlara verdiği destekten vazgeçip Trump'a arka çıkmak için 290 milyon dolardan fazla para harcayan Musk'tan daha iyi temsil edemez. Artık Musk, maliyet düşürücü Hükümet Verimliliği Bakanlığı girişimi aracılığıyla federal hükümetin harcama öncelikleri üzerinde eşi benzeri görülmemiş bir etkiye sahip. Şirketlerinin federal hükümetle yaptığı milyonlarca dolarlık sözleşmeler göz önüne alındığında bu, etik kaygılara yol açıyor.

Teknoloji endüstrisi, DeepSeek'in piyasaya sürülmesi dahil Çin'in yapay zeka alanındaki hızlı ilerlemeleri göz önüne alındığında savunma kurumuyla daha yakın bir işbirliğinin gerekli olduğunu savunuyor. Çinli bir şirketin ABD'li rakipleriyle boy ölçüşen ancak maliyetinin çok altında geliştirilen yapay zeka asistanı DeepSeek'in piyasaya sürülmesi ABD hisselerinin çakılmasına neden olmuştu.

Independent Türkçe



Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


NASA, Mars'ta akan suyun en eski kanıtlarından birini buldu

Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)
Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)
TT

NASA, Mars'ta akan suyun en eski kanıtlarından birini buldu

Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)
Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)

NASA'nın keşif aracı Perseverance, Mars'ta bir zamanlar akan su kütleleri olduğuna dair bugüne kadarki en eski kanıtlardan birini buldu.

Su, yaşam için elzem olduğundan bilim insanları Mars'ın geçmişinde bu bileşiği özellikle arıyor. 

Son yıllarda giderek artan bulgular Kızıl Gezegen'in, yaklaşık 4,5 milyar yıllık ömrünün ilk dönemlerinde su ve belki de mikrobiyal yaşama ev sahipliği yaptığına işaret ediyor.

2021'den beri gezegenin Jezero Krateri'nde keşif çalışmaları yürüten Perseverance, yerin altında eski bir deltanın kalıntılarını tespit ederek bu kanıtlara bir yenisini ekledi. 

NASA'nın keşif aracındaki RIMFAX radarı, aşağıya gönderdiği dalgalarla yeraltındaki yapıların haritasını çıkarabiliyor.

Kaliforniya Üniversitesi Los Angeles kampüsünden araştırmacılar, cihazın Eylül 2023 ila Şubat 2024'teki verilerini inceleyerek 35 metre derinlikteki nehir deltasını ortaya çıkardı. RIMFAX daha önce bu kadar derinden veri sunmamıştı.

Bulgular, bir nehrin göl gibi daha büyük bir su kütlesine girdiği yerde oluşan, yelpaze şeklinde geniş bir tortu birikimine işaret ediyor.

rtgrt
RIMFAX, Mars yüzeyinin altındaki nehir sistemini ortaya çıkardı (NASA)

Bilim insanları deltanın yaklaşık 3,7 ila 4,2 milyar yıllık olduğunu tespit etti. Bu yapının yakınlarında, yüzeyde saptanan Batı Deltası isimli oluşum ise 3,5 ila 3,7 milyar yıl önceye tarihlenmişti.

Yeni keşfedilen delta, Mars'ın geçmişinde akan su olduğuna dair en eski kanıtlardan biri.

Bulguları hakemli dergi Science Advances'ta dün (18 Mart) yayımlanan çalışmanın başyazarı Emily Cardarelli şöyle diyor:

RIMFAX'in haritaladığı özelliklerden yola çıkarak Jezero Krateri'nin, Jezero'nun Batı Deltası'nın oluşumundan önce var olan ve biyoimzaların korunmasına elverişli, su açısından zengin eski bir ortama ev sahipliği yaptığına inanıyoruz.

Biyoimza, yaşamın varlığına işaret eden kimyasal veya fiziksel kanıtları ifade ediyor. Çalışma aynı zamanda gezegende yaşamın var olabileceği tarihi de geriye atıyor.

Cardarelli "RIMFAX, bugünkü deltadan daha eski bir yeraltı delta ortamını ortaya çıkardı ve bu, Jezero'daki potansiyel yaşanabilirlik dönemini daha da geriye götürüyor" ifadelerini kullanıyor.

Daha önce NASA'nın hem Perseverance hem de Curiosity araçları, Mars'ta antik yaşamın varlığına güçlü bir şekilde işaret eden bulgular tespit etmişti.

Çin'in Zhurong aracıysa Mars'ta yaklaşık 3,6 milyar yıl önce bir okyanusun yanı sıra "tatil yeri tarzı" plajlar olabileceğini bulmuştu. 

Cardarelli "Zaman içinde çeşitli araçların iniş alanlarında, geçtiğimiz bölgelerde ve yörünge görüntülerinde Mars yüzeyinde sıvı su olduğuna dair giderek daha fazla kanıt gördük. Suyun akmış olabileceği kanalları, bir zamanlar suyun biriktiği krater göllerini ve kaya çıkıntıları olarak biriken ve artık yerin altına gömülü kalıntılar olan delta tortularını bu araştırmayla gördük" diyerek ekliyor:

Mars çeşitliliğe sahip bir gezegen ve her keşif görevi, kayalık komşumuzun gizemli geçmişi ve erken gelişiminin bir başka parçasını ortaya çıkarıyor.

Independent Türkçe, Reuters, IFLScience, Science Advances