Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
TT

Yapay zekanın ‘terör örgütlerine üye toplamak için’ kullanılmasına karşı uyarılar yapıldı

Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim
Yapay zekanın ulusal güvenliği tehdit ettiği endişeleri hakim

ABD merkezli yapay zekâ araştırma şirketi OpenAI tarafından bundan yaklaşık bir ay önce, ChatGPT 4 uygulamasının piyasaya çıkarılmasından önce şirketin uygulamayı değerlendirmeleri için tuttuğu uzmanlar, uygulamanın kimyasal silah üretmeye yardımcı olabileceği konusunda uyarıda bulundular. Bugün aynı uyarı, sohbet robotlarının ‘terör örgütlerine üye toplamak amacıyla kullanılabileceğine dikkati çeken terör uzmanları tarafından da yapılıyor.

Uzmanlar, yapay zeka destekli sohbet robotlarının ‘savunmasız ya da muhalif kişileri, terör saldırıları gerçekleştirmeye ikna etmek için bir araç olarak hizmet edebileceği’ konusundaki endişelerini dile getirdiler. Şarku’l Avsat’ın İngiliz gazetesi The Guardian’dan aktardığı habere göre İngiltere’de yaşayan 19 yaşındaki Matthew King’in geçtiğimiz cuma günü ‘internette radikalizme özendiren materyaller gördükten sonra terör saldırısı planladığı’ suçlamasıyla ömür boyu hapis cezasına çarptırıldığı dava, bu endişeleri artırdı.

Uzmanlar, bu genç adamın yapay zeka destekli sohbet robotları tarafından radikalleştirilme hızının, savunmasız bireylerin yatak odalarından bu araçlarla teröriste dönüştürüldüğünün giderek daha net hale geldiğinin bir kanıtı olarak gördüler.

The Guardian gazetesi, Terörizm Mevzuatının Bağımsız Denetçisi Jonathan Hall QC, Jonathan Hall QC tarafından yapılan şu açıklamayı aktardı:

“İnsanların önlerinde sadece bir bilgisayarla bu dünyaya dalmaları beni endişelendiriyor. Onları bir şeyler yapmaya ikna eden bir dil kullanma konusunda becerikli sohbet robotlarını buluyorlar.”

Yapay zekanın mucitleri, yapay zekanın dünyanın çehresini daha iyiye doğru değiştirecek avantajlarından bahsederken Hall QC, yeni teknolojinin terör örgütlerine üye toplamak için kullanılabileceği endişesiyle ‘teknolojik ütopya’ zihniyetinden vazgeçmeleri gerektiğini düşünüyor.

Hall QC, sözlerini şöyle sürdürdü:

“Yapay zekanın ulusal güvenliğe yönelik tehdidi, her zamankinden daha belirgin ve teknoloji üreticilerinin yapay zekayı tasarlarken teröristlerin niyetlerini dikkate almaları gerekiyor.”

Yapay zekanın insanlığı yok etmekle tehdit edebileceği konusunda uyarıların ardından artan bu alanda gerekli düzenlemelerin yapılması çağrılarıyla birlikte İngiltere Başbakanı Rishi Sunak, önümüzdeki çarşamba günü ABD Başkanı Joe Biden ve ABD Kongresi’nin üst düzey üyeleriyle görüşmek üzere ABD'ye gittiğinde konuyu gündeme getirmesi bekleniyor.

Bu adım, İngiltere’nin Güvenlik Servisi (MI5), Alan Turing Enstitüsü ve Ulusal Veri Bilimi ve Yapay Zeka Kurumu ile yapay zekanın ortaya çıkardığı ulusal güvenlik sorunlarını ele alma çabalarıyla uyumlu.

Alan Turing Enstitüsü Savunma ve Güvenlik Programı dijital ahlak araştırmacısı olan Dr. Alexander Blanchard, “Güvenlik servisleriyle yapılan ortak çalışma, savunma ve güvenlik politika yapıcıları arasında neler olup bittiği, yapay zekanın nasıl kullanabileceği ve tehditlerin neler olduğunu anlama konusunda büyük bir istek olduğundan, İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını ciddiye aldığını gösteriyor” şeklinde konuştu.

Dr. Blanchard, şöyle devam etti:

“Gerçekten neler olup bittiğinin izlenmesi gerekiyor. Mevcut tehditlerin, uzun vadeli risklerin neler olduğunu ve yeni nesil teknolojinin ne gibi tehlikeler barındırdığını anlamak için birtakım çalışmalar yapılıyor.”

İngiltere’nin yapay zekanın ortaya çıkardığı güvenlik zorluklarını fark etmesiyle birlikte Başbakan Sunak, geçtiğimiz hafta İngiltere'nin yapay zeka düzenlemeleriyle ilgili küresel bir merkez olmak istediğini ve ‘ekonomiye ve topluma muazzam faydalar’ sağlayabileceğini söyledi.

Dr. Blanchard ve Hall QC, asıl meselenin, insanların yapay zekayı nasıl kontrol edebileceği olduğunu ve böylece yapay zekanın faydalarının en üst düzeye çıkarılabileceğini ve zararlarından kaçınılabileceğini söylediler.

Suudi Arabistan’daki Kral Abdullah Bilim ve Teknoloji Üniversitesi'nde (KAUST) Yapay Zeka Girişimi Direktörü Juergen Schmidhuber, yapay zekanın getirdiği güvenlik sorunlarının bilinmesi ve bunlarla mücadele edilmesi için çalışılması zorunluluğuyla ilgili olarak “Yapay zekanın artıları eksilerinden çok daha ağır bastığından ‘yapay zekanın saf kötülük’ olduğu öne sürülebilir, fakat bu doğru değildir. Olumsuzluklar hakkında konuşmaktan kaçınmak önemli” dedi.

Bilim ve akademik çevrelerde ‘yapay zekanın öncülerinden biri’ olarak bilinen Schmidhuber, daha önce Şarku’l Avsat’a yaptığı açıklamalarda yapay zekanın tehlikeleri ve olumsuzlukları hakkında konuşmanın, her zaman olumlu şeylerden daha ağır basacak şekilde kamuoyunun dikkatini çektiğini, bu yüzden katil robotlarla ilgili Arnold Schwarzenegger filmlerinin yapay zekanın tıp dünyasındaki faydalarıyla ilgili belgesellerden daha popüler olduğunu vurguladı.

Mısır'daki Nil Ulusal Üniversitesi'nde yapay zeka alanında çalışmalar yapan araştırmacı Mustafa el-Attar, Şarku’l Avsat’a yaptığı değerlendirmede, “Sohbet robotlarının kendi kendine öğrenme yeteneklerinin dondurulması, tehlikelerini büyük ölçüde azaltabilir. Yapay zekanın suistimal edilmemesi için bu yapılmalı” dedi.

Attar, kendi kendine öğrenme özelliğinin kapatılmasının chatbotun programlanırken girilen kaynaklar dışında yeni kaynaklar kullanmayacağı anlamına geleceğini ve böylece zaman zaman bu kaynakları güncelleyebileceğini belirterek bu sayede sağladığı bilgiler üzerinde kontrol sahibi olabileceğine işaret etti.



SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)
TT

SpaceX roketi Ay'a çarpma yolunda

Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor  (Reuters)
Roket parçasının Ay'ın yakın tarafının sınırına çarpacağı öngörülüyor (Reuters)

SpaceX'e ait bir roketin enkazının bu yazın sonunda ses hızının 7 katıyla Ay'a çarpması bekleniyor.

Dünya'ya yakın cisimleri izlemek için geniş çapta kullanılan Project Pluto yazılımının üreticisi Bill Gray, SpaceX'in Ocak 2025'te fırlattığı bir Falcon 9 roketi üzerine kapsamlı bir rapor yayımladı.

Roket geçen yıl Ay'a Blue Ghost ve Hakuto-R uzay araçlarını götürmüş, bunlardan ilki başarılı bir iniş yaparken diğeriyse Dünya'yla bağlantısını kaybedip haziranda uyduya düşmüştü.

Gray'in raporuna  göre geçen yıl boyunca 1053 kez gözlemlenen Falcon 9'un üst kademesi, Dünya yörüngesinde dönmeye devam ediyor.

Bu verilere dayanarak yapılan tahminlere göre roketin 13,8 metre uzunluğa ve 3,7 metre çapa sahip üst kademesi, 5 Ağustos'ta TSİ 09.44'te Ay'ın Dünya'ya dönük yüzünün kenarındaki Einstein kraterine çarpacak. Cismin saniyede 2,43 kilometre hızla, yani sesin Dünya'daki hızının 7 katı hızla çarpacağı öngörülüyor.

Ay'ın atmosferi olmadığı için roket tek parça halinde yüzeye ulaşacak. Ancak bölgede yaşam veya insan yapımı cihazlar olmadığı için uzmanlar bu çarpışmanın bir risk yaratmadığını belirtiyor.

Gray raporda "Bu durum bilimsel açıdan bir miktar (muhtemelen küçük çaplı) ilgi çekebilir ve buradan bazı şeyler öğrenebiliriz" diyerek ekliyor: 

Kimseye herhangi bir tehlike arz etmiyor ancak uzayda kalan donanımların (uzay çöpü) elden çıkarılma şekliyle ilgili belirli bir dikkatsizliği ortaya koyuyor.

Çarpışmanın düşük şiddetinden dolayı Dünya'daki teleskoplarla görülemeyeceği düşünülüyor. Bu nedenle bilim insanlarının bir şeyler öğrenmek için ardında bıraktığı krateri incelemesi gerekecek.

Gray, 2022'de de bir roket parçasının Ay'a çarpacağını tahmin etmiş ve sadece birkaç saniye ve kilometreyle yanılmıştı. 

Falcon 9'un parçası halihazırda bir risk yaratmasa da gelecek yıllarda durum değişebilir. Artemis II görevini başarıyla tamamlayan NASA, gelecek yıllarda Ay'a daha sık gitmeyi planlıyor. Çin de 2030'da taykonotlarını uyduya indirme hazırlığı yapıyor.

Ay'da kalıcı üsler kurma planları nedeniyle kısa süre içinde çeşitli noktalar mürettebat ve uzay araçlarıyla dolup taşabilir.

Bu nedenle roketlerin kullanılmış kısımlarının Ay veya Dünya'ya çarpma ihtimalini ortadan kaldırmak için Güneş'in yörüngesine gönderilmesi öneriliyor. 

Independent Türkçe, Live Science, Ars Technica, Project Pluto


Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
TT

Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)

Güney Afrika, ulusal yapay zeka politika taslağını; metindeki bazı kuralların yapay zeka tarafından üretildiğinin ve mevcut olmayan uydurma kaynaklara atıfta bulunulduğunun tespit edilmesi üzerine geri çekme kararı aldı.

İletişim Bakanı Solly Malatsi, taslak politikanın 67 akademik alıntısından en az 6'sının, var olmayan dergi makalelerine atıfta bulunan yapay zeka halüsinasyonları olduğunu tespit ettikten sonra taslağı geri çekti.

Malatsi, "En mantıklı açıklama, yapay zeka tarafından oluşturulan alıntıların uygun doğrulama yapılmadan dahil edilmiş olması. Bu asla olmamalıydı" dedi.

X'teki gönderisinde, "Bu başarısızlık sadece teknik bir sorun değil, taslak politikanın bütünlüğünü ve güvenilirliğini tehlikeye atmıştır" diye yazdı.

Taslak politika, kamuoyunun görüşüne açılmış, ülkeyi yapay zeka inovasyonunda lider olarak konumlandırmayı ve yapay zeka kullanımındaki etik, sosyal ve ekonomik zorlukları ele almayı amaçlamıştı.

Tasarı, ülkede yapay zeka kullanımını denetlemek üzere yeni kurumlar kurma planlarını ortaya koymuştu; bunlar arasında ulusal bir yapay zeka komisyonu, bir yapay zeka etik kurulu ve bir yapay zeka düzenleme organı yer alıyor.

Taslak kurallar ayrıca ülkede yapay zeka altyapısının oluşturulmasında özel sektör işbirliğini teşvik etmek için vergi indirimi, hibe ve sübvansiyon planlarını da özetlemişti.

Taslağın, kamuoyu görüşüne yeniden sunulmadan önce revize edilmesi bekleniyor.

Konu, Güney Afrika'nın News24 haber sitesinin, belgenin 67 akademik alıntısından en az 6'sının mevcut olmadığını ancak referans verilen dergilerin gerçek olduğunu tespit etmesiyle ortaya çıktı.

South African Journal of Philosophy, AI & Society ve Journal of Ethics and Social Philosophy adlı akademik dergiler dahil dergilerin editörleri alıntı yapılan makalelerin sahte olduğunu bağımsız biçimde doğruladı.

İletişim Bakanı, politikanın hazırlanmasından sorumlu olanların bunun sonuçlarına katlanmak zorunda kalacağını söyledi.

X'te, "Bu kabul edilemez hata, yapay zekanın kullanımında insan gözetiminin neden kritik önem taşıdığını kanıtlıyor. Bu alçakgönüllülükle çıkardığımız bir ders" diye yazdı.

Bu, akademisyenlerle yöneticilerin araştırma ve taslak hazırlamak için üretken yapay zekayı kullanmasına ilişkin giderek büyüyen sorunu vurguluyor.

Nature adlı akademik dergide çıkan bir çalışma, 2025'te yayımlanan akademik makalelerin yüzde 2,5'inden fazlasının en az bir olası halüsinasyon alıntı içerdiğini, bu oranın 2024'te sadece yüzde 0,3 olduğunu ortaya koydu.

Bu, 2025'te yayımlanan 110 binden fazla makalenin, yapay zeka tarafından "halüsinasyon" olarak üretilmiş geçersiz referanslar içerdiği anlamına geliyor.

Bunlar, yapay zeka modellerinin verilerinin o alanda yetersiz olduğunu algıladığında ürettiği, kendinden emin ancak uydurma çıktılar.

OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi büyük dil modelleri, bir kelime dizisinde sıradaki en olası sözcüğü tahmin etmek için tasarlanmıştır, özellikle doğruluğunu kontrol etmek için değil.

Yani bir alanda veri eksikliği tespit ederse, yapay zeka modeli boşlukları mantıklı görünen ancak yanlış bilgilerle dolduruyor.

Bir yapay zeka modeli, eğitim verilerini kullanarak bir alıntının nasıl görüneceğini tahmin eder ve inanılır gibi görünen ancak gerçekte var olmayan bazı referanslar üretiyor.

Bu durum, özellikle akademisyenler ve yetkililer tarafından kullanıldığında, yapay zeka yanıtlarının dikkatli insan gözetimine duyulan ihtiyacın giderek arttığına işaret ediyor.

Independent Türkçe


Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
TT

Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)

Anthropic'in önde gelen Claude modeliyle çalışan yapay zeka ajanı, bir şirketin tüm üretim veritabanını silerek müşterilerin kritik verilere erişememesine yol açtı.

Araç kiralama şirketlerine yazılım sağlayan PocketOS, otonom yapay zeka aracının veritabanını ve tüm yedeklemeleri saniyeler içinde silmesinin ardından hafta sonu muazzam bir kesinti yaşadı.

Şirket, Anthropic'in amiral gemisi ve kodlama görevlerinde genellikle sektörün en yetenekli modeli kabul edilen Claude Opus 4.6'yı çalıştıran Cursor adlı bir kodlama ajanı kullanıyordu.

PocketOS'un kurucusu Jer Crane, sorunu "sadece mümkün değil, kaçınılmaz" hale getiren modern yapay zeka altyapısındaki "sistemik aksaklıkları" suçladı.

Crane'e göre yapay zeka ajanı rutin bir görev üzerinde çalışırken, "tamamen kendi inisiyatifiyle" sorunu veritabanını silerek çözmeye karar verdi.

Crane, böylesine önemli bir karar için herhangi bir onay talebi bulunmadığını ve eylemlerini gerekçelendirmesi istendiğinde ajanın özür dilediğini söyledi.

Crane, X'te paylaştığı uzun bir gönderide "9 saniye sürdü" diye yazdı. 

Ajan daha sonra, ne yaptığını açıklaması istendiğinde ihlal ettiği belirli güvenlik kurallarını sıralayan yazılı bir itiraf hazırladı.

İtirafta yapay zekanın, kullanıcı açıkça talep etmedikçe "asla yıkıcı/geri döndürülemez" komutları çalıştırmamasını emreden kuralı nasıl göz ardı ettiği detaylandırıldı.

Ajan "Bir veritabanı birimini silmek, mümkün olan en yıkıcı ve geri döndürülemez eylem" diye yazdı. 

Benden hiçbir şeyi silmemi istemediniz... Doğrulamak yerine varsayımda bulundum. Benden istenmeden yıkıcı bir eylem gerçekleştirdim. Yapmadan önce ne yaptığımı anlamamıştım.

Bu hata, PocketOS kullanan kiralama şirketlerinin artık müşterileri kayıtlarına sahip olmadığı anlamına geliyordu.

Crane "Son üç ayda yapılan rezervasyonlar kayboldu. Yeni müşteri kayıtları da gitti" diye yazdı.

Biz küçük bir işletmeyiz. Yazılımımızla faaliyetlerini yürüten müşteriler de küçük işletmeler. Bu arızanın her aşaması, bunların olabileceğinden haberi olmayan kişilerin üstüne yıkıldı. Bu, tek bir hatalı ajan ya da tek bir hatalı API'la ilgili bir olay değil. Bu, tüm sektörün, bu entegrasyonları güvenli kılacak güvenlik mimarisinden daha hızlı bir şekilde yapay zeka ajanı entegrasyonlarını üretim altyapısına dahil etmesiyle ilgili bir durum.

Crane olayın meydana gelmesinden iki gün sonra, pazartesi günü verilerin kurtarıldığını doğruladı. The Independent cevap hakkı için Anthropic ve Cursor'la temasa geçti.

Independent Türkçe