Afet riskinin azaltılmasında yapay zekadan nasıl faydalanılır?

Yapay zeka, en yüksek risk potansiyeline sahip günleri ortaya çıkarabilir ve önceliklerin belirlenmesinde yardımcı olabilir

Afet yönetimi alanında afetin etkilerini azaltmak ve onu yönetmek amacıyla yapay zeka ön plana çıktı / Görsel: Unsplash
Afet yönetimi alanında afetin etkilerini azaltmak ve onu yönetmek amacıyla yapay zeka ön plana çıktı / Görsel: Unsplash
TT

Afet riskinin azaltılmasında yapay zekadan nasıl faydalanılır?

Afet yönetimi alanında afetin etkilerini azaltmak ve onu yönetmek amacıyla yapay zeka ön plana çıktı / Görsel: Unsplash
Afet yönetimi alanında afetin etkilerini azaltmak ve onu yönetmek amacıyla yapay zeka ön plana çıktı / Görsel: Unsplash

Nermin Ali 

Hala birçok gizeminin bilim tarafından bilinmediği bir dünyada, afetlerden kurtulma umutları yetkililer, kurtarma ekipleri ve akıllı sistemlere bağlı kalıyor.

Felaket durumunda, krizle anında başa çıkma, yaralıları tahliye etme ve mahsur kalanları kurtarma ön planda.

Kimi insanlar yapay zeka sistemlerinin topladıkları verilere dayanarak felaketleri gerçek zamanlı olarak tahmin etmelerini umut etse de uzmanların tüm çabalarına rağmen günümüzde yapay zeka, olayları kesin bir şekilde tahmin etme yeteneğine sahip değil.

Uzmanların bu yönde çalışmaları devam ediyor, ancak daha önemli olan, felaketler sırasında ve sonrasında kullanılabilmesi ve bazen felaketlerden kısa bir süre önce kullanılabilmesi.

Ayrıca, yapay zeka sistemlerinin sürekli ihmal edilen veya arıza gösteren bölgelerde güvenlik önlemleri alınması gerektiğine dair önemli ipuçları sağladığı ve bu şekilde maddi zararları ve ölümleri azalttığı biliniyor.

Afet riskinin azaltılması

Afet Riskinin Azaltılması (DRR) veya diğer adıyla Afet Risk Yönetimi (DRM) terimi, afet risklerini belirlemeyi değerlendirmeyi ve azaltmayı amaçlayan sistemli bir yaklaşım olarak tanımlanır.

Temel olarak DRR, felaketlere karşı toplumsal ve ekonomik zayıflıkları azaltmayı hedefler ve özellikle çevresel riskler gibi felakete yol açan risklerle başa çıkmayı amaçlar.

Birleşmiş Milletler Afet Risklerini Azaltma Ofisi (UNDRR) ve Birleşmiş Milletler Kalkınma Programı (UNDP) tarafından tanımlandığı gibi DRR, yeni afet risklerini önlemeyi, mevcut afet risklerini azaltmayı ve diğer riskleri yönetmeyi hedefler.

Bu, esnekliği artırır ve dayanıklılığı sağlar ve böylece sürdürülebilir kalkınmayı teşvik eder.

Yapay zekanın altın çağını yaşadığımız bir dönemde, yapay zeka sistemlerinin bu alanda neler sunabileceği önemli.

Bu sistemler, karar vericilere felaket risklerini azaltma konusunda doğru kararlar alabilmeleri için gerekli araçlar ve bilgileri sağlayabilirler mi?

Yapay zeka ve afetler

Yapay zeka, afetlerin yönetimi ve etkilerinin azaltılması amacıyla afet yönetimi alanında ortaya çıktı.

Bu alan, felaketlerin riskli olaylarını veri toplama ve analiz etme yeteneği ile kullanmaya başladı.

Bu başlangıç, yapay zeka sistemlerinin açık kaynaklardan topladığı verilere dayalı olarak tehlikeli olayları tahmin etme girişimleriyle başlar ve sonunda bu amaç için özel olarak üretilen modern otomatik sistemleri kullanır.

Ayrıca, gerçek zamanlı felaketleri tespit etmek ve hızlı önlemler almak için risk haritaları oluşturur.

Yapay zeka yöntemleri, veri izleme için önceden işlenmiş verileri ve işlenmiş model çıktılarını kullanarak doğal felaketler, jeolojik felaketler, hidrolojik felaketler, çığlar, toprak kaymaları, volkanik patlamalar, seller, tsunamiler, orman yangınları ve doğal olmayan felaketler gibi çeşitli olaylarda erken uyarı yapma gibi yeni uygulamalarla ilgili yeni fırsatlar sunar.

Örneğin, sel olaylarını tespit etmek için, su toplama alanındaki değişiklikleri izlemek ve algılamak için karmaşık bir sensör ağı kurulur.

Bu, ani sel felaketlerinin neredeyse hiç önceden uyarı olmaksızın ortaya çıkmasının oluşturduğu ciddi tehlikeler göz önüne alındığında büyük bir öneme sahiptir.

Yapay zeka ayrıca hava durumu ve iklim tahmini yapmanın ötesinde, belirli bir konumda ve belirli bir günde bir olayın gözlemlenme olasılığını tahmin etmek için uzmanlar tarafından kullanılıyor.

Bu, çevresel koşulları izleyerek bir olayın gözlemlenme olasılığını tahmin eden bir araç oluşturmak amacıyla kullanılıyor.

Bu model, olaya özgü uzman merkezlerden gelen veri ve gözlemleri kullanarak riskin yüksek olduğu günleri belirleyebilir.

Ayrıca, yapay zeka, doğal felaketler ve acil durumlar sırasında sahada çalışan kurumlar arasında etkili iletişim sağlamak için kullanılır.

Yapay zeka, doğal felaketlere müdahale eden ekiplere, riskleri değerlendirmelerine ve öncelikleri belirlemelerine yardımcı olabilecek verileri sunar.

Yapay zekanın en iyi şekilde nasıl yardımcı olabileceği konusunda optimize edilmiş bir yaklaşımın araştırılması konusunda sürekli olarak çalışılıyor.

Risk haritaları

Yapay zeka, deprem, volkan, heyelan, su baskını ve tsunami gibi belirli bir riske maruz kalan alanlara ışık tutan bir harita türü olan risk haritaları da oluşturabilir.

Doğru kullanıldığında bu sistemler, belirli tehlikelere maruz kalmaktan kaçınarak veya bunların potansiyel olumsuz etkilerini etkisiz hale getirerek hayat kurtarabilir ve maddi kayıpları azaltabilir.

Örneğin, Jeolojik Araştırma Kurumu tarafından oluşturulan bir risk haritası, riskli bölgelerde yaşayan insanlar için sigorta ayarlamalarını düzenlemek için sigorta kuruluşları tarafından kullanılabilir.

Ayrıca, sel risk haritaları, sigorta primlerini belirlemekte kullanılabilir ve bireylere belirli bir bölgede yaşamanın risklerini anlamalarına yardımcı olabilir.

Bu haritalar ayrıca bir bölgedeki yaşam risklerini belirlemede de yardımcı olabilir ve insanlara olası tehlikeleri fark etmelerine yardımcı olur, bu da durumsal farkındalık olarak adlandırılan bilgilerin sağlanması anlamına gelir.

Sonuç olarak, farklı kaynaklardan gelen verilere doğru zamanda yönetim, yatırım ve erişim sürecindeki başarı, afet yönetimi sürecindeki başarının önemli bir parçası olarak değerlendirilebilir.

Independent Arabia - Independent Türkçe



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe