Facebook ve Instagram'dan 31 Mart önlemleri

Meta Türkiye ve Azerbaycan Kamu Politikaları Müdürü Sezen Yeşil, 31 Mart'ta yapılacak Mahalli İdareler Genel Seçimleri sırasında usulsüz müdahaleleri engellemek amacıyla uzmanlaşmış ekipler oluşturduklarını bildirdi

Fotoğraf: AA
Fotoğraf: AA
TT

Facebook ve Instagram'dan 31 Mart önlemleri

Fotoğraf: AA
Fotoğraf: AA

Yeşil; Meta olarak platformlarında bir hafta sonra gerçekleştirilecek seçimlere yönelik kapsamlı önlemler aldıklarını söyledi.

Yapay zeka ve dijital teknikleri de kullanarak yanlış bilgilendirme ve manipülasyonla mücadele çabalarını yoğunlaştırdıklarını belirten Yeşil, Facebook veya Instagram'da sosyal meselelerle, seçimlerle veya siyasetle ilgili reklamın dijital olarak oluşturulması ya da üzerinde oynanması halinde insanların bunu anlamasına yardımcı olduklarını bildirdi.

Yeşil, şunları kaydetti:

Bir sosyal meseleye, seçimlere veya siyasete ilişkin reklam, dijital olarak oluşturulmuş veya üzerinde oynanmış gerçekçi bir görsel veya video ya da gerçekçi ses kaydı içeriyorsa reklam verenlerin bunu açıklamalarını şart koşuyoruz. Bir reklam veren, reklam verme akışında içeriğin dijital olarak oluşturulduğuna veya üzerinde oynandığına dair açıklama yaptığında Meta olarak reklama bilgi ekliyoruz. Bu bilgi Reklam Kütüphanesinde de görünüyor. Bir reklam verenin gerektiği şekilde açıklama yapmadığını tespit ettiğimiz takdirde reklamı reddediyoruz ve açıklama yapılmamasının tekrarlanması durumunda reklam veren yaptırımlarla karşılaşıyor.

Teyit ağıyla asılsız reklamlara inceleme

Yeşil, yapay zeka ya da insan tarafından oluşturulan ilkeleri ihlal eden içerikleri kaldırdıklarını ifade ederek, bağımsız haber doğrulayıcı ortaklarının viral yanlış bilgileri değerlendirip puanladığını dile getirdi.

Bir reklam "asılsız, üzerinde oynanmış, kısmen asılsız veya bağlam eksik" olarak değerlendirilirse yayınlanmasına izin vermediklerini vurgulayan Yeşil, "Dünya çapında yaklaşık 100 ortaktan oluşan bilgi teyit ağımız sayesinde 60'tan fazla dilde dolaşıma giren yanlış bilgileri inceliyor ve değerlendiriyoruz. Bu ortaklarımızdan ikisi de Türkiye'de ve Türkçe olarak destek veriyor." diye konuştu.

Türkiye'de, toplumun dijital medya okuryazarlığının artırılması alanında yapılan çalışmalara da destek olmaya çabaladıklarına dikkati çeken Yeşil, "Dogrula.org" ekibiyle 11 Mart'ta başlattıkları ve 8 hafta sürecek "#GerçeğiKeşfet Reels" kampanyasıyla doğru bilgiye ulaşma yolunda kolay ve eğlenceli ipuçları paylaştıklarını anlattı.

Meta olarak seçimlere yönelik politikalarında yaptıkları sürekli güncellemelerin ve proaktif tehdit tespitlerinin yanı sıra "Topluluk Standartları"nı ihlal eden içerikleri kaldırarak, seçimlere ve seçmene müdahale edilmesini önlediklerini belirten Yeşil, şöyle devam etti:

Seçimlere müdahaleyi engellemek için uzmanlaşmış ekipler oluşturduk. Bu ekipler sayesinde, sofistike ağlar kullanarak kamusal tartışmaya müdahale etmeye çalışan bazı sayfalar, gruplar ve hesaplara yani koordineli kötüye kullanım konusuna odaklandık. Platformlarımızda bu tarz faaliyet tespit ettiğimizde, özellikle de seçimlerle ilgili olduğu durumlarda aksiyon alıyoruz. Facebook ve Instagram'da, spam ve yanlış bilgiler de dahil 'Topluluk Standartları'na aykırı olan ve insanların seçimlere katılımına müdahale etme riskine katkıda bulunabilecek içerikler hakkında işlem yapılıyor. Ayrıca, dünya çapında WhatsApp kullanan kişiler, mesajın paylaşıldığı ülkedeki güvenilir doğruluk kontrol kuruluşlarına olası yanlış bilgileri bildirebiliyor. Bu bilgi teyit kuruluşlarına doğrudan WhatsApp üzerinden mesaj gönderildiğinde, kuruluşlar bilgi teyit makalesi paylaşarak yanıt veriyor. Türkiye'de de WhatsApp üzerinden doğrulama hizmeti sunan iki kuruluş bulunuyor.

"Seçimlerin dürüstlüğünü artırmak için çalışıyoruz"

Manipülasyon kampanyalarını çökertmek ve ortaya çıkan tehditleri belirlemek için gelişmiş güvenlik operasyonlarının bulunduğunu vurgulayan Yeşil, "Bunlardan ilki Reklam Kütüphanesi. Tüm siyasi ve seçimlere dayalı reklamlar, 7 yıl boyunca bulunacak şekilde Reklam Kütüphanemize ekleniyor. Böylece herkes hangi reklamların yayında olduğunu, hedeflemeyle ilgili bilgileri ve bunlara ne kadar harcama yapıldığını öğrenebiliyor." ifadelerini kullandı.

Facebook ve Instagram'da reklamların şeffaflığını ve seçimlerin dürüstlüğünü artırmak için sürekli olarak çalıştıklarını dile getiren Yeşil, sosyal meseleler, seçimler veya siyasetle ilgili reklamlar yayınlamak isteyenler için güvenilirliği ve meşruluğu destekleyecek önlemler aldıklarını anlattı.

Yeşil, seçimlerle veya siyasetle ilgili bir reklam yayınlamak isteyen reklam verenlerin, kim olduklarını ve nerede yaşadıklarını kanıtlamaları gerektiğini belirterek, şeffaflık ilkelerine paralel olarak paylaşımların üzerine reklam verenin kim olduğunu gösteren etiketlerin eklendiğini bildirdi.

İnsanların seçimler ve siyasetle ilgili daha az reklam görmelerini sağlayan kontroller de eklediklerini belirten Yeşil, "Kullanıcılar bu kontrolleri kullandığında etiketlenmiş reklamları görmüyor. Bununla birlikte, reklam verenlerin hem tüm içerik türlerine uygulanan Topluluk Standartları'na hem de ücretli reklamlara uygulanan Meta Reklam Standartları'na uymasını şart koşuyoruz." dedi.

 

AA, Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe