Rakipleri, Elon Musk'a meydan okuyor: "Starlink yörüngede güvenlik riski yaratıyor"

Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)
Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)
TT

Rakipleri, Elon Musk'a meydan okuyor: "Starlink yörüngede güvenlik riski yaratıyor"

Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)
Elon Musk’ın uzay interneti geçen yıl ABD'de yangınların mahvettiği bölgelerde kullanılmıştı (Starlink)

Elon Musk'ın internet uydusu girişimi Starlink; rakiplerinden büyük eleştiri topluyor. Projenin uzayı kirletmekle kalmadığı, aynı zamanda yörüngede büyük güvenlik riski yarattığı öne sürülüyor.
Musk'ın SpaceX şirketinin başlattığı proje, dünyanın her köşesine süper hızlı internet ulaştırmayı hedefliyor. Şirket şu anda yaklaşık 12 bin uyduyu yörüngeye gönderme yetkisine sahip. 30 bin uydu daha yollayabilmek için de onay bekliyor.
Öte yandan Viasat, OneWeb Global, Hughes Network Systems ve Boeing gibi rakip şirketler, Starlink'e adeta meydan okuyor.
Bunlardan bir kısmı, Musk'ın uydularının kendi cihazlarının sinyallerini engellediğinden ve uydularını fiziksel açıdan tehlikeye attığından şikayet ediyor.
Projeyi eleştirenlerin ana argümanı, Musk'ın tıpkı Tesla'da olduğu gibi "önce piyasaya sürme, sonra geliştirme" prensibinin yörüngenin kirlenmesiyle sonuçlandığı.
OneWeb yetkililerinden Chris McLaughlin, "Uydularımızın her biri Ford Focus gibidir; test edilir ve çalışır" diye konuştu:
"Starlink uydularıysa Tesla gibi. Onları fırlatıyorlar ve sonra yükseltmeleri, düzeltmeleri, hatta tamamen değiştirmeleri gerekiyor."
Gerçekten de SpaceX, 2019'da ilk Starlink uydularının yaklaşık yüzde 5'inin başarısız olduğunu açıklamıştı. Bu uydular Dünya'ya düşmesi ve atmosferde yanarak yok olması için kaderine terk edilmişti.
Öte yandan, Kasım 2020'de Harvard-Smithsonian Astrofizik Merkezi'nden astrofizikçi Jonathan McDowell, Starlink'in başarısızlık oranının yaklaşık yüzde 3 olduğunu hesaplamıştı. McDowell, Starlink'in o zamandan beri uydularının tasarımını büyük ölçüde geliştirdiğini ve arıza oranının şu anda yüzde 1'in altında olduğunu söyledi.
McLaughlin ise Starlink'in çok fazla uydu çalıştıracağını ve düşük arıza oranının bile çarpışma potansiyeli açısından yörüngede büyük risk teşkil ettiğini ifade etti.
"Starlink, yörüngede bin 300'den fazla uzay aracı işletiyor ve projeye her ay yaklaşık 120 uydu daha ekleniyor. Starlink uyduları, 1950'lerden bu yana fırlatılan toplam uydu sayısını (9 bin) aşma yolunda ilerliyor."
Viasat'ın kurucusu ve yönetim kurulu başkanı Mark Dankberg, "Daha az uydunuz olmalı ve onları daha yetenekli kılmalısınız" diyor.
Dankberg, şirketinin yörüngede yaratacağı olası trafiğe dair daha önce de uyarılarda bulunmuştu. Ancak Musk, bu uyarılara Twitter hesabından şöyle cevap vermişti:
Starlink, Viasat'ın kazancı için tehlike oluşturuyor, mevzu daha çok bu gibi.
Starlink projesinin gerekli izinleri aldığı Federal İletişim Komisyonu'nda Musk'a meydan okuyan bir Boeing sözcüsü ise "rekabete uygun bir alan sağlamanın güvenli ve sürdürülebilir bir yörünge ortamı için çok önemli olduğunu" söylemişti.
Diğer yandan Wall Street Journal'ın aktardığına göre 2 Nisan'da bir Starlink uydusu, Oneweb'in işlettiği bir diğeriyle çarpışmanın eşiğine geldi.
OneWeb yetkililerinden McLaughlin, bu esnada Starlink mühendisleriyle iletişime geçtiklerini ama çarpışmayı önlemek için hiçbir şey yapılamayacağı yanıtını aldıklarını bildirdi. Bunun ardından Oneweb uydusu manevra yaparak çarpışmadan kaçındı.
AB uydularını yöneten Avrupa Uzay Ajansı (ESA) da benzer bir olayın 2019'un sonlarında meydana geldiğini aktardı.
Buna göre bir Starlink uydusunun AB'nin işlettiği bir uyduyla çarpışma rotasına girdiğini gören yetkililer,  Starlink'le yalnızca e-posta yoluyla iletişime geçebildi ve herhangi bir işlem yapılamayacağı cevabını aldı. Bunun sonucunda AB mühendisleri manevra yapmak zorunda kaldı.
SpaceX, iki olaya dair yorum taleplerine ise yanıt vermedi.
Texas Üniversitesi Havacılık ve Uzay Mühendisliği'nden Doç. Dr. Moriba Jah, bu durumu şöyle yorumladı:
"Musk sadece yasal olanı yapıyor. Ancak yasal olması güvenli veya sürdürülebilir olduğu anlamına gelmez."
 
Independent Türkçe, Wall Street Journal



Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
TT

Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)

Güney Afrika, ulusal yapay zeka politika taslağını; metindeki bazı kuralların yapay zeka tarafından üretildiğinin ve mevcut olmayan uydurma kaynaklara atıfta bulunulduğunun tespit edilmesi üzerine geri çekme kararı aldı.

İletişim Bakanı Solly Malatsi, taslak politikanın 67 akademik alıntısından en az 6'sının, var olmayan dergi makalelerine atıfta bulunan yapay zeka halüsinasyonları olduğunu tespit ettikten sonra taslağı geri çekti.

Malatsi, "En mantıklı açıklama, yapay zeka tarafından oluşturulan alıntıların uygun doğrulama yapılmadan dahil edilmiş olması. Bu asla olmamalıydı" dedi.

X'teki gönderisinde, "Bu başarısızlık sadece teknik bir sorun değil, taslak politikanın bütünlüğünü ve güvenilirliğini tehlikeye atmıştır" diye yazdı.

Taslak politika, kamuoyunun görüşüne açılmış, ülkeyi yapay zeka inovasyonunda lider olarak konumlandırmayı ve yapay zeka kullanımındaki etik, sosyal ve ekonomik zorlukları ele almayı amaçlamıştı.

Tasarı, ülkede yapay zeka kullanımını denetlemek üzere yeni kurumlar kurma planlarını ortaya koymuştu; bunlar arasında ulusal bir yapay zeka komisyonu, bir yapay zeka etik kurulu ve bir yapay zeka düzenleme organı yer alıyor.

Taslak kurallar ayrıca ülkede yapay zeka altyapısının oluşturulmasında özel sektör işbirliğini teşvik etmek için vergi indirimi, hibe ve sübvansiyon planlarını da özetlemişti.

Taslağın, kamuoyu görüşüne yeniden sunulmadan önce revize edilmesi bekleniyor.

Konu, Güney Afrika'nın News24 haber sitesinin, belgenin 67 akademik alıntısından en az 6'sının mevcut olmadığını ancak referans verilen dergilerin gerçek olduğunu tespit etmesiyle ortaya çıktı.

South African Journal of Philosophy, AI & Society ve Journal of Ethics and Social Philosophy adlı akademik dergiler dahil dergilerin editörleri alıntı yapılan makalelerin sahte olduğunu bağımsız biçimde doğruladı.

İletişim Bakanı, politikanın hazırlanmasından sorumlu olanların bunun sonuçlarına katlanmak zorunda kalacağını söyledi.

X'te, "Bu kabul edilemez hata, yapay zekanın kullanımında insan gözetiminin neden kritik önem taşıdığını kanıtlıyor. Bu alçakgönüllülükle çıkardığımız bir ders" diye yazdı.

Bu, akademisyenlerle yöneticilerin araştırma ve taslak hazırlamak için üretken yapay zekayı kullanmasına ilişkin giderek büyüyen sorunu vurguluyor.

Nature adlı akademik dergide çıkan bir çalışma, 2025'te yayımlanan akademik makalelerin yüzde 2,5'inden fazlasının en az bir olası halüsinasyon alıntı içerdiğini, bu oranın 2024'te sadece yüzde 0,3 olduğunu ortaya koydu.

Bu, 2025'te yayımlanan 110 binden fazla makalenin, yapay zeka tarafından "halüsinasyon" olarak üretilmiş geçersiz referanslar içerdiği anlamına geliyor.

Bunlar, yapay zeka modellerinin verilerinin o alanda yetersiz olduğunu algıladığında ürettiği, kendinden emin ancak uydurma çıktılar.

OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi büyük dil modelleri, bir kelime dizisinde sıradaki en olası sözcüğü tahmin etmek için tasarlanmıştır, özellikle doğruluğunu kontrol etmek için değil.

Yani bir alanda veri eksikliği tespit ederse, yapay zeka modeli boşlukları mantıklı görünen ancak yanlış bilgilerle dolduruyor.

Bir yapay zeka modeli, eğitim verilerini kullanarak bir alıntının nasıl görüneceğini tahmin eder ve inanılır gibi görünen ancak gerçekte var olmayan bazı referanslar üretiyor.

Bu durum, özellikle akademisyenler ve yetkililer tarafından kullanıldığında, yapay zeka yanıtlarının dikkatli insan gözetimine duyulan ihtiyacın giderek arttığına işaret ediyor.

Independent Türkçe


Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
TT

Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)

Anthropic'in önde gelen Claude modeliyle çalışan yapay zeka ajanı, bir şirketin tüm üretim veritabanını silerek müşterilerin kritik verilere erişememesine yol açtı.

Araç kiralama şirketlerine yazılım sağlayan PocketOS, otonom yapay zeka aracının veritabanını ve tüm yedeklemeleri saniyeler içinde silmesinin ardından hafta sonu muazzam bir kesinti yaşadı.

Şirket, Anthropic'in amiral gemisi ve kodlama görevlerinde genellikle sektörün en yetenekli modeli kabul edilen Claude Opus 4.6'yı çalıştıran Cursor adlı bir kodlama ajanı kullanıyordu.

PocketOS'un kurucusu Jer Crane, sorunu "sadece mümkün değil, kaçınılmaz" hale getiren modern yapay zeka altyapısındaki "sistemik aksaklıkları" suçladı.

Crane'e göre yapay zeka ajanı rutin bir görev üzerinde çalışırken, "tamamen kendi inisiyatifiyle" sorunu veritabanını silerek çözmeye karar verdi.

Crane, böylesine önemli bir karar için herhangi bir onay talebi bulunmadığını ve eylemlerini gerekçelendirmesi istendiğinde ajanın özür dilediğini söyledi.

Crane, X'te paylaştığı uzun bir gönderide "9 saniye sürdü" diye yazdı. 

Ajan daha sonra, ne yaptığını açıklaması istendiğinde ihlal ettiği belirli güvenlik kurallarını sıralayan yazılı bir itiraf hazırladı.

İtirafta yapay zekanın, kullanıcı açıkça talep etmedikçe "asla yıkıcı/geri döndürülemez" komutları çalıştırmamasını emreden kuralı nasıl göz ardı ettiği detaylandırıldı.

Ajan "Bir veritabanı birimini silmek, mümkün olan en yıkıcı ve geri döndürülemez eylem" diye yazdı. 

Benden hiçbir şeyi silmemi istemediniz... Doğrulamak yerine varsayımda bulundum. Benden istenmeden yıkıcı bir eylem gerçekleştirdim. Yapmadan önce ne yaptığımı anlamamıştım.

Bu hata, PocketOS kullanan kiralama şirketlerinin artık müşterileri kayıtlarına sahip olmadığı anlamına geliyordu.

Crane "Son üç ayda yapılan rezervasyonlar kayboldu. Yeni müşteri kayıtları da gitti" diye yazdı.

Biz küçük bir işletmeyiz. Yazılımımızla faaliyetlerini yürüten müşteriler de küçük işletmeler. Bu arızanın her aşaması, bunların olabileceğinden haberi olmayan kişilerin üstüne yıkıldı. Bu, tek bir hatalı ajan ya da tek bir hatalı API'la ilgili bir olay değil. Bu, tüm sektörün, bu entegrasyonları güvenli kılacak güvenlik mimarisinden daha hızlı bir şekilde yapay zeka ajanı entegrasyonlarını üretim altyapısına dahil etmesiyle ilgili bir durum.

Crane olayın meydana gelmesinden iki gün sonra, pazartesi günü verilerin kurtarıldığını doğruladı. The Independent cevap hakkı için Anthropic ve Cursor'la temasa geçti.

Independent Türkçe


Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
TT

Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)

The Information gazetesi bugün, Google’ın ana şirketi Alphabet’in, ABD Savunma Bakanlığı (Pentagon) ile yapmış olduğu gizli yapay zekâ modelleri kullanma anlaşmasını duyurdu. Böylece Google, Pentagon ile benzer anlaşmalar imzalayan teknoloji şirketleri listesine katıldı.

Şarku’l Avsat’ın The Information gazetesinden aktardığına göre bu anlaşma, Pentagon’a Google’ın yapay zekâ araçlarını ‘herhangi bir yasal hükümet amacı’ için kullanma izni veriyor. Bu şekilde Google, Elon Musk’ın OpenAI ve xAI şirketleriyle birlikte, yapay zekâ modellerini gizli faaliyetlerde kullanmak üzere Pentagon ile anlaşma yapan şirketler arasına katıldı.

Gizli ağlar, geniş bir yelpazede hassas faaliyetlerle başa çıkmak için kullanılıyor, bunlar arasında görev planlaması ve silah hedeflerinin belirlenmesi de yer alıyor. Pentagon, 2025 yılına kadar büyük yapay zekâ laboratuvarlarıyla her biri 200 milyon dolara kadar anlaşmalar yaptı, bunlar arasında Anthropic, OpenAI ve Google da bulunuyor. Bakanlık, savunma alanında tam esneklik sağlamak ve teknoloji üreticilerinin, güvenilmeyen yapay zekâ araçlarını silahlar üzerinde kullanmakla ilgili uyarılarına bağlı kalmamak için bu tür anlaşmalar yapmayı sürdürüyor.

Google ile yapılan anlaşma, şirketin hükümetin talebi üzerine, yapay zekâ araçlarının güvenlik ayarlarını ve filtrelerini uyarlamasını da içeriyor.

Gazete, sözleşmenin, ‘Tarafların, yapay zekâ sisteminin, uygun insan gözetimi ve kontrolü olmadan, yerel kitlesel gözetim veya otonom silahlar, hedef seçimleri gibi amaçlar için kullanılmaması gerektiği konusunda anlaştıklarını’ belirten bir ifadeyi içerdiğini bildirdi. Ancak, anlaşmanın ‘herhangi bir operasyonel hükümet kararını yönetme hakkı veya itiraz hakkı vermediğini’ de ekledi.

Reuters, gazetenin haberinin doğruluğunu henüz doğrulayamadı. Alphabet ve ABD Savunma Bakanlığı, yorum yapmaları için yapılan başvurulara henüz yanıt vermedi.

Daha önce Reuters, Pentagon’un OpenAI ve Anthropic gibi büyük yapay zekâ şirketlerine, kullanıcılar için uyguladıkları standart sınırlamalar olmaksızın, yapay zekâ araçlarını gizli ağlarda kullanılabilir hale getirmeleri için baskı yaptığını bildirmişti.