Parmak kıran satranç robotuyla gündeme geldi: Tarihten en feci robot faciaları

Bir robot tarafından öldürülen ilk kişi, Ocak 1979'da hayatını kaybeden Robert Williams’tı

Yapay zeka programları ve robotlar insanların gündelik işlerini kolaylaştırırken, korkunç olaylara da karışabiliyor (Unsplash)
Yapay zeka programları ve robotlar insanların gündelik işlerini kolaylaştırırken, korkunç olaylara da karışabiliyor (Unsplash)
TT

Parmak kıran satranç robotuyla gündeme geldi: Tarihten en feci robot faciaları

Yapay zeka programları ve robotlar insanların gündelik işlerini kolaylaştırırken, korkunç olaylara da karışabiliyor (Unsplash)
Yapay zeka programları ve robotlar insanların gündelik işlerini kolaylaştırırken, korkunç olaylara da karışabiliyor (Unsplash)

Hafta sonu Rusya'da satranç oynayan yapay zekalı bir robotun bir çocuğun parmağını kırdığı görüntüler tartışma yaratmaya devam ediyor.
Moskova Açık Satranç Turnuvası’nda küçük çocuğun hamlesini tavsiye edilen süreden daha erken yapması robotun kafasını karıştırdı. Bunun üzerine robot, çocuğun parmağını yakaladı ve ezerek kırılmasına neden oldu.

Rusya Satranç Federasyonu başkan yardımcısı Sergey Lazarev, olayın bir kaza olduğunu vurguladığı açıklamasında, çocuğun çok erken bir hamle yaparak güvenlik kurallarını ihlal ettiğini söyledi.
Öte yandan bu olay, robotların neden olduğu başka kazaları da gündeme getirdi. İşte robotların karıştığı bazı feci kazalar…

Robotun karıştığı ilk ölümlü kaza
Bir robot tarafından öldürülen ilk kişi, Ocak 1979'da Robert Williams oldu.
ABD’nin Michigan eyaletinde bir fabrika işçisi olan 25 yaşındaki Williams, depolama raflarından nesneleri almak için tasarlanmış bir endüstriyel robot kolunun kafasına çarpması sonucu hayatını kaybetti.
Ailesi, robot üreticisi Litton Industries'e dava açtı ve 10 milyon dolar tazminat aldı. Mahkeme böyle bir kazanın olmasını önlemek için yeterli güvenlik önlemi alınmadığına karar verdi.

İşçiyi 10 yerinden bıçaklayan makine
En korkunç robot kazalarından biri, Aralık 2018'de Zhou adlı 49 yaşındaki Çinli bir fabrika işçisinin başına geldi.
Fabrika’daki dev robotik üretim aracı aniden çökünce makinenin üzerindeki sivri uçlu 10 çubuk Zhou’nun bedenine saplandı.
Çubuklardan 9’u işçinin sağ koluna, biri de göğsüne girdi.
Zhou mucizevi şekilde hayatta kaldı.

Otonom sürüşte ilk ölüm: Tesla otomobili traktörü göremedi
Otonom sürüş özelliğine sahip araçların neden olduğu ilk ölüm, Mayıs 2016'da kayda geçti. Eski bir donanma subayı Florida'da bir otoyolda Tesla aracını sürücüsüz moda almıştı.
Araç bir traktörle çarpışınca Tesla otomobil yüzlerce metre savruldu.
Tesla’nın otopilot sistemi, traktörün beyaz rengini parlak gökyüzüne benzettiği için ağır taşıtı tespit edemedi. Olayı soruşturan ekipler, sürücünün de frene basma girişiminde bulunmadığını aktardı.
Elon Musk'ın kurucusu ve CEO’su olduğu firma, yolcunun "trajik" ölümünü doğruladı ama araçlarının diğerlerinden daha güvenli olduğunu söyleyerek kendini savundu.

Bir diğer otonom sürüş felaketi
Mart 2018'de Elaine Herzberg, yolculuk paylaşımı firması Uber'den kiralanan otonom bir prototipin çarpması sonucu hayatını kaybetti.
49 yaşındaki Herzberg, Arizona'da 4 şeritli bir yolda bisikletini iterken, otonom sürüş modunda çalışan araç ona çarptı.
60677743-11046663-This_photo_from_video_from_a_mounted_camera_provided_by_the_Temp-a-3_1658821765705.png
Tempe Polis Departmanı tarafından sağlanan fotoğraf, Uber aracının kadına çarpmasından saniyeler öncesini gösteriyor (AP)
Araçta yedek sürücü olarak görev alan Uber mühendisi Rafaela Vasquez’in kaza esnasında video izlediği için ihmalkar davrandığı öne sürüldü.
Vasquez daha sonra taksirle adam öldürmekle suçlanırken, Uber kazadan sorumlu tutulmadı.

Robot cerrah hastayı öldürdü
Şubat 2015'te, üç çocuk babası ve emekli müzik öğretmeni Stephen Pettitt, Birleşik Krallık’taki Freeman Hastanesi'nde kalbindeki mitral kapak hastalığı nedeniyle robotik cerrahi operasyon geçirdi.
Bu, ülkenin ilk robot destekli kalp kapakçığı ameliyatıydı.
Robot çok ses çıkardığı için baş cerrah Sukumaran Nair ve asistan cerrah Thasee Pillay birbirini duymakta zorluk çekti. Nair, Da Vinci adlı robotun dikişleri yanlış şekilde attığını söylemek için iş arkadaşlarıyla bağırarak iletişim kurmak zorunda kaldı ve bu esnada olmaması gerekenler yaşandı.
Robot, hastanın aort damarına zarar verdi ve robotun görmesini sağlayan kamera da dahil her yer kan oldu.
Sonunda hasta hayatını kaybetti.
Nair, artık İskoçya'da çalışıyor ve robotik cerrahi prosedürleri uygulamıyor.

Volkswagen fabrikasında robot işçiyi yakaladı
Haziran 2015'te Almanya'nın Baunatal kentindeki bir Volkswagen fabrikasında 22 yaşındaki bir adam robotik bir kol tarafından öldürüldü.
Robotik kol, makine parçalarını kaldırmayı amaçlıyordu. Ancak yanlışlıkla genç adamı yakaladı ve onu büyük bir metal plakaya vurdu.
Göğsünden ağır yaralanan adam, hastanede hayatını kaybetti.
Soruşturma sonucunda robotta arıza olmadığı, kazanın insan kaynaklı bir hatadan kaynaklandığı savunuldu.

Amazon deposunda ayı kovucu sprey paniği
Robotların karıştığı kazaların en ilginç örneklerinden biri 2018’de meydana geldi.
Bir robot, New Jersey'deki bir Amazon deposunda ayı kovucu sprey içeren bir kutuyu yanlışlıkla deldi ve 24 işçiyi hastanelik etti.
Kutu yüklü miktarda sprey içeriyordu. Sprey ise yoğun kapsaisin içeriyordu. Bu, acı biberde ve biber gazında yer alan aktif bir bileşen.
Gazdan etkilenen işçilerden biri yoğun bakımda tedavi edildi.
 
Independent Türkçe, Daily Mail



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe