Çocukların internette güvenliğini sağlamaya yönelik adımlar

Çocukları internetteki zararlı içeriklerden korumak için güvenlik ayarlarının kontrol edilmesi önemli.
Çocukları internetteki zararlı içeriklerden korumak için güvenlik ayarlarının kontrol edilmesi önemli.
TT

Çocukların internette güvenliğini sağlamaya yönelik adımlar

Çocukları internetteki zararlı içeriklerden korumak için güvenlik ayarlarının kontrol edilmesi önemli.
Çocukları internetteki zararlı içeriklerden korumak için güvenlik ayarlarının kontrol edilmesi önemli.

Sosyal medya şirketleri çocuk güvenliği konusunda saldırılara maruz kaldıklarında bu duruma genellikle bir ya da iki yeni güvenlik ayarıyla yanıt verirler.

Çocukların elektronik güvenliğini savunanlar, büyük sorunları tedavi etmek için ‘yara bandı kullanmaya’ benzeyen bu adımları sık sık eleştiriyor. Instagram platformu tarafından paylaşılan veriler, 2022'den bu yana gençlerin yalnızca yüzde 10'unun hesaplarında ebeveyn kontrollerini etkinleştirdiğini ve ebeveynlerin yüzde 10'undan daha azının bununla ilgilendiğini ortaya koydu. Babaların aksine annelerin güvenlik ayarlarına daha fazla önem verdiği de belirtildi.

Çocukların internetteki güvenliği

Uzmanlar, sosyal medya şirketlerinin uygulamalarını çocukların güvenliğini koruyacak şekilde tasarlamalarını gerektiren bir mevzuatın olmamasının, çocukların korunması sorumluluğunu tamamen ebeveynlere yüklediği görüşünde. Şarku’l Avsat’ın edindiği bilgilere göre uygulamalarda bulunan güvenlik ayarlarının, siber taciz davranışı veya zararlı içeriği teşvik eden algoritmalar gibi sistemik sorunları çözmeyeceği doğru ancak bu ayarlar kontrol edilmeye muhtaç.

Washington'dan Tatum Hunter, TikTok platformundaki tek bir düğmenin yabancıların çocuklarınızın videolarını istismar etmesini engellediğini belirtiyor. Instagram'da gençler takip etmedikleri kişilerden gelen tüm hashtag'leri, bahsedenleri ve doğrudan mesajları engelleyebiliyor.

Bu ayarlar, belirli bir uygulamanın çocuklarınız hakkında topladığı verilerin türünü etkilemiyor ancak çevrimiçi etkinliklerinin yabancılara ve iletişim kurabilecekleri kişilere ne ölçüde görünür olduğunu etkiliyor.

Elbette, hesap oluşturmalarına izin vermek için ergenlik çağına gelmelerini beklemek, onları zararlı sosyal medya dinamiklerinden korumanın en iyi yollarından biridir.

Uygulama ayarlarını gözden geçirdiğinizde, konuşmanın iki taraf arasında olduğundan emin olun. Çocuklarınıza belirli uygulamalarda nelerden hoşlandıklarını ve çevrimiçi ortamda nelerle karşılaştıklarını sorun; ceza korkusu olmadan size her şeyi anlatmalarına izin verin. Sosyal medya müdahalesi, gençlerin katılımına izin verildiğinde en iyi sonucu verir; kısacası, yargıç değil koç olmaya çalışın.

Güvenli ayarlar

İşte gözden geçirilmesi gereken bazı ayarlar:

- Hesabınızı özel moda dönüştürün. Gençleriniz herkese açık bir hesaptan fotoğraf, video ve metin paylaştığında, bunları üniversite kurumları, eğitim için internette veri arayan yapay zeka şirketleri gibi birçok kurum ve kişi görebilir.

Buna karşılık, özel hesaplar içerikleri çocuklarınızın arkadaş veya takipçi olarak kabul ettiği kişilere gösterir. Bu da çocuklara içeriklerini kimlerin görebileceği konusunda daha fazla kontrol sağlar ve paylaşım yaparken hissettikleri baskıyı azaltır.

Gençlerle paylaşımlarının geride bıraktığı ‘dijital ayak izi’ hakkında konuşun. Daha sonra utanç duyma olasılığını azaltmak için paylaşımlarını değerlendirmelerini sağlayın.

Yüz yüze tanışmadıkları birinden arkadaşlık isteği alırlarsa, gönderilerini o kişiyle paylaşmanın güvenli olup olmadığını nasıl bilebilirler? Özel hesaplar bazı istenmeyen gözleri uzaklaştırmaya yardımcı olur, ancak gönderilerin ekran görüntülerinin halen var olduğunu unutmamalıyız.

Çoğu durumda, çocuklarınız oturum açarken gerçek yaşlarını belirtirlerse, gizlilik ayarları ve diğer hesap kontrolleri gıyaben etkinleştirilecektir. Ancak bunu kesin olarak kabul etmeyin; çünkü birçok genç kullanıcı, uygulamanın uygulayabileceği kontrollerden kaçınmak için yaşları hakkında yalan söylemektedir. Bu nedenle, çocuklarınızın hesaplarındaki doğum tarihlerini gözden geçirmek için birkaç dakikanızı ayırmalısınız.

- Yabancılarla iletişimi kontrol edin. TikTok, Instagram, Snapchat, Twitch ve Discord gibi çoğu sosyal medya uygulaması, kimlerin doğrudan mesaj gönderebileceğini belirleyen kontroller içerir. Bu nedenle, doğrudan mesajları ‘yalnızca arkadaşlarla’ sınırlamak gençleri tacizden, takipçilerden ve zorbalardan koruyacaktır.

Gençlerle aldıkları mesajlar hakkında konuşun. Öncelikle onlara arkadaşlarının aldığı doğrudan mesajları sorun ve yabancıların gelen kutularına girmesi durumunda nelerin yanlış gidebileceğini birlikte gözden geçirin. University College London tarafından 2021 yılında yapılan bir araştırma, genç kızların yüzde 75'inin doğrudan mesajlar yoluyla uygunsuz görüntüler aldığını ortaya koydu.

Çoğu sosyal medya uygulaması bu notları ‘mesaj’ olarak adlandırır. Twitch'te ‘Yabancıları Engelle’ seçeneğine tıklamanız gerekir. ‘Discord’da ‘Güvenli Direkt Mesajlar’ özelliğini açabilirsiniz. Böylece uygulama uygunsuz görüntüleri tespit etmek için direkt mesajları tarayacaktır.

Karışık sahte videolar

- Video pornografisini devre dışı bırakın. Kısa klip platformlarında; TikTok, Instagram ve YouTube gibi, ‘remix’ özelliği, kullanıcıların kendi içeriklerinde diğer kişilerin videolarından alıntılar yapmasına olanak tanır. Örneğin, bir içerik oluşturucu popüler bir TikTok klibinin birkaç saniyesini inceleyebilir ve kendi videosuna ekleyebilir.

Remiks, izleyicinin videoyu tartışmasına bağlıdır. Daha iyi mi yoksa daha kötü mü? Çünkü gençleriniz tarafından yayınlanan TikTok videosunun birkaç düzine arkadaş veya uygulamanın pek de hoş olmayan birkaç milyon kullanıcısı tarafından görüleceği anlamına gelebilir.

Gençlerden size birkaç remiksli video örneği göstermelerini isteyin, karışımın ne sıklıkla olumlu, olumsuz veya nötr olduğunu birlikte değerlendirin ve ardından çocuklarınızın bu tür bir maruz kalmaya açık olup olmadıklarına birlikte karar verin.

TikTok'ta bu ayarı değiştirmek için ‘Ayarlar ve Gizlilik’, ardından ‘Gizlilik’ ve daha sonra ‘Remix’ bölümüne gidin. Instagram'da, çocuklarınızın içeriğinin yayılmasını kontrol etmek için ‘Paylaş ve Yeniden Karıştır’ seçeneğine tıklayın. YouTube söz konusu olduğunda, platform kısa video yapımcılarının ‘YouTube Studio İçerik Yöneticisi’ özelliğine erişimleri olmadığı sürece her türlü karıştırmayı devre dışı bırakmalarına izin vermez. Ancak çocuklarınızın video yükleme işlemi sırasında kişisel kısa videolarla remiks yapılmasını engelleyebilir.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe