Kaspersky: 2023 yılında günlük 411 bin zararlı dosya tespit edildi

En fazla hedef alınan sistemler ‘Microsoft Office’ ve ‘Windows’ olarak açıklandı.

Microsoft Office belge türlerindeki kötü amaçlı belgeleri içeren saldırıların sayısında yüzde 53 oranında önemli bir artış oldu. (Shutterstock)
Microsoft Office belge türlerindeki kötü amaçlı belgeleri içeren saldırıların sayısında yüzde 53 oranında önemli bir artış oldu. (Shutterstock)
TT

Kaspersky: 2023 yılında günlük 411 bin zararlı dosya tespit edildi

Microsoft Office belge türlerindeki kötü amaçlı belgeleri içeren saldırıların sayısında yüzde 53 oranında önemli bir artış oldu. (Shutterstock)
Microsoft Office belge türlerindeki kötü amaçlı belgeleri içeren saldırıların sayısında yüzde 53 oranında önemli bir artış oldu. (Shutterstock)

Kaspersky sistemleri bu yıl günde yaklaşık 411 bini kötü amaçlı olmak üzere yaklaşık 125 milyon dosya tespit etti. Bu durum, 2023 yılı boyunca siber tehditlerin geçen yıla oranla yüzde 3 artış gösterdiğine işaret ediyor.

Uzmanlar, Microsoft Office belge türleri veya PDF dosyaları gibi kötü amaçlı belgeleri içeren saldırıların sayısında yüzde 53'lük önemli bir artış olduğunu kaydetti. Saldırganlar, tespit edilmeden sistemlere sızmak için ‘arka kapılar’ kullanmak gibi daha riskli eylemler gerçekleştirdi.

Fotoğraf Altı: Kaspersky, 2019'dan 2023'e kadar güvenlik çözümleri tarafından günlük tespit edilen ortalama zararlı dosya sayısını açıkladı. (Kaspersky)
Kaspersky, 2019'dan 2023'e kadar güvenlik çözümleri tarafından günlük tespit edilen ortalama zararlı dosya sayısını açıkladı. (Kaspersky)

Saldırılara karşı en savunmasız cihazlar

Kaspersky sistemleri tarafından günlük olarak tespit edilen tüm kötü amaçlı yazılım dolu verilerin yüzde 88'inin Windows cihazlarda bulunması nedeniyle Windows cihazlar siber saldırıların ana hedefi oldu. Farklı komut dosyaları ve çeşitli formatlardaki belgeler aracılığıyla yayılan kötü amaçlı yazılımlar da günlük olarak tespit edilen tüm kötü amaçlı dosyaların yüzde 10'unu temsil ederek yılın ilk üç siber tehdidi arasında yer aldı.

Şarku’l Avsat’ın edindiği bilgilere göre en yaygın kötü amaçlı yazılım türünde ‘Truva atı’ yazılımı halen ilk sırada. 2023 yılı, ‘arka kapı’ kullanımında 2022'de günlük olarak keşfedilen 15 bin dosyadan 2023'te 40 bin dosyalık bir artışa tanık oldu. Bu veriler, ‘arka kapı’ çabalarının arasında en tehlikelisinin ‘Truva atı’ yazılımı olduğunu gözler önüne serdi. Yazılım, saldırganlara, gizli verileri toplamanın ve kurbanın bilgisayar etkinliklerini kaydetmenin yanı sıra, dosya gönderme, alma, çalıştırma ve silme gibi görevleri gerçekleştirmek için kurbanın sistemini uzaktan kontrol etme yeteneği de sağlıyor.

Fotoğraf Altı: Kaspersky tarafından günlük olarak tespit edilen kötü amaçlı yazılım dolu verilerin yüzde 88'i Windows çalıştıran cihazlarda bulunuyor. (Kaspersky)
Kaspersky tarafından günlük olarak tespit edilen kötü amaçlı yazılım dolu verilerin yüzde 88'i Windows çalıştıran cihazlarda bulunuyor. (Kaspersky)

Kullanıcılara tavsiyeler

Kaspersky uzmanları bireysel kullanıcılara, güvenilmeyen kaynaklardan uygulama indirmemelerini ve yüklememelerini, bilinmeyen kaynaklardan gelen bağlantılara veya internetteki şüpheli reklamlara tıklamamalarını tavsiye ediyor.

Buna ek olarak, küçük ve büyük İngilizce harfler, sayılar ve noktalama işaretlerinin bir karışımını içeren güçlü, benzersiz parolalar oluşturmayı ve iki faktörlü kimlik doğrulamayı etkinleştirmeyi öneriyor.

Kullanıcılar için ipuçları

- Bazıları belirli güvenlik sorunları için önemli düzeltmeler içerebileceğinden, güncellemeleri her zaman yükleyin.

- Ofis güvenlik sistemlerini veya siber güvenlik yazılımlarını devre dışı bırakmanızı isteyen mesajları dikkate almayın.

- ‘Kaspersky Premium’ gibi sisteminize ve cihaz türünüze uygun güçlü bir güvenlik çözümü kullanın.

Şirketler için tavsiyeler

Kaspersky uzmanları, saldırganların güvenlik açıklarından yararlanarak ağınıza sızmasını önlemek için şirketler tarafından kullanılan tüm cihazlara periyodik olarak en son yazılım güncellemelerinin yüklendiğinden emin olunması gerektiği görüşünde. Uzmanlara göre şirket hizmetlerine erişmek için güçlü parolalar kullanma ilkesini yerleştirmek ve hizmetlere uzaktan erişmek için çok faktörlü kimlik doğrulama kullanmak da büyük önem taşıyor.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe