Yapay zeka girişimleri 7 yılda 33 kat arttı

Türkiye Yapay Zeka İnisiyatifini (TRAI) 2017'de kuran Halil Aksu, yapay zeka girişimlerinin 7 yılda 33 kat arttığını belirtti.

AA
AA
TT

Yapay zeka girişimleri 7 yılda 33 kat arttı

AA
AA

Türkiye Yapay Zeka İnisiyatifini (TRAI) 2017'de kuran Halil Aksu, yapay zeka girişimlerinin 7 yılda 33 kat arttığını belirterek, “Biz 2017'de Türkiye'de 12 tane yapay zeka ‘startup'ı saymıştık. Bugün 400'e yakın girişimci var ve bunların çoğu iyi fonlanmış durumda, çok başarılılar.” dedi.

Aksu, Anadolu Ajansı Teyit Hattı'na yapay zekayla ilgili çeşitli açıklamalarda bulundu.

Dünya yapay zeka liginde Türkiye’nin yerini değerlendiren Aksu, ABD, Çin, İngiltere, Kanada, Fransa, Almanya ve Japonya gibi ülkelerden sonra Türkiye’nin ikinci ligde gibi düşünülebileceğini ifade ederek “Biz 2017'de Türkiye'de 12 tane yapay zeka ‘startup'ı saymıştık. Bugün 400'e yakın girişimci var ve bunların çoğu iyi fonlanmış durumda, çok başarılılar. Yurt dışına ihracat yapıyorlar, yurt dışına ofislerini kuruyorlar. Son 6-7 yılda Türkiye çok sevdi yapay zekayı, özel sektör… 2021 yılında Cumhurbaşkanlığı Dijital Dönüşüm Ofisi bir Ulusal Yapay Zeka Stratejisi dokümanı yayınladı. Bu da çok değerli bir belge. Kamu sektörü de yapay zekayı şu an çok ciddiye alıyor.” diye konuştu.

“İşinizi yapay zeka değil, yapay zekayla sizden daha iyi yapabilen elinizden alacak”

“Yapay zekanın iş hayatını ve istihdamı gelecekte nasıl etkileyebileceği” sorusunu yanıtlayan Aksu, yapay zekanın otomasyonu kolay ve faydalı olan meslekleri ortadan kaldırma ihtimali olduğunu belirtti.

Aksu, kendisinin de çok beğendiği bir söylemi anımsatarak, "Sizin mesleğinizi yapay zeka elinizden almayacak ama sizin işinizi yapay zekayla sizden daha iyi, daha hızlı, daha verimli yapabilen bir insan, sizin işinizi elinizden alacak. Bu neredeyse her meslek için geçerli." dedi.

“Yapay zeka yanlış ellere geçerse çok büyük zararlara sebep olabilir”

Aksu, yapay zekayla ilgili hukuki düzenleme çalışmaları kapsamında ise şunları kaydetti:

“Ben liberal ekonomi savunucusuyum ama devletin de asgari düzenleme çerçevesi sağlaması gerektiğine inanıyorum. Yapay zeka yanlış ellere geçerse, yanlış, daha doğrusu kötü niyetli amaçlarla kullanılırsa, çok büyük zararlara ve tahribatlara sebep olabilir. Otonom araçların çarpışmasından menkul değerler piyasalarının manipülasyonuna kadar, yanlış kanser teşhislerinden sahte veya yalan içeriklerin yaygınlaşmasına kadar, istihdamı yok etmesinden özellikle de askeri alanda tehlikeli ve otonom sistemlerin başına buyruk hareket edip felaketlere neden olmasına kadar pek çok alanda, yapay zeka ters ve yıkıcı sonuçları olabilir.”

Etik ve hukuki düzenlemeler gerektiğini ifade eden Aksu, “Bunlarla ilgili etik, hukuki ve resmi düzenlemeler ve yönlendirmeler olmak zorundadır. Ama etik ve yasal çerçevenin içinde girişimcilere, serbest ekonomiye, arz talep dengesine olabildiğince az müdahale edilmelidir, özel sektör, kamu ve sivil toplumun bir denge ve rekabet içinde ilerlemesi ve gelişmesi teşvik edilmelidir.” dedi.

“En büyük sorumluluğu taşıyan oyuncular sosyal medya şirketleri”

Yapay zeka ile dezenformasyon ilişkisini değerlendiren Aksu, sosyal medya ortamında bilgi kirliliği, dezenformasyon seli, tsunamisi yaşandığını söyledi. Toplumsal açıdan en önemli sorunlardan birinin dezenformasyon olduğunu ifade eden Aksu, şöyle devam etti:

“Aslında yapay zeka, kendisi yapmıyor bunu. Aslında sosyal medya şirketleri, burada en büyük sorumluluğu taşıyan oyuncular. Çünkü sizin de benim de sosyal medyaya girdiğimizde onun amaç fonksiyonu, onun kullandığı yapay zeka, sizi içeride tutmak, beni içeride tutmak. O yüzden benim önüme futbol videosu düşürüyor, kedi videosu düşürüyor, ekonomi haberi düşürüyor araya da diğerlerini serpiştiriyor. Şimdi bunu yapabilmek için, yapay zekayı beni tanımak, beni bağımlı hale getirmek için kullanıyor.”

Aksu, aynı sosyal medya şirketlerinin aslında hakikatle sahte bilgiyi ayırmak için de çok daha basit yapay zeka kullanabileceğini ancak “iş modeli” ve “ahlaki pusula”larının problemli olduğunu söyledi.

“Yapay zeka çok daha iyi tahminleme yapmayı sağlayacaktır”

Aksu, “Yapay zekayla deprem tahmini mümkün mü?” şeklindeki soruya ise şu yanıtı verdi:

“Kesinlikle. Şimdi şöyle düşünmemiz lazım: İnsan aklıyla yapabildiğimiz her şeyi yapay zekayla da yapabiliriz. Hatta çok daha iyi yapabiliriz. Çok daha hızlı yapabiliriz. Deprem tahmini aslında neye dayanıyor? Deprem tahmini sahadan veri toplamaya ve istatistiki modellere bakmaya da dayanıyor. Dolayısıyla biz bunu insan aklıyla ya da geleneksel bilişim sistemiyle yapmaktansa öğrenen sistemlerle yapmak ve orada gelişmiş algoritmalar kullanmak çok daha iyi tahminleme yapmayı sağlayacaktır.”



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe