Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

İnsanlara komplo kuruyor

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
TT

Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)
Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)

Yapay zekanın yalan söyleyip insanları aldatmakta ustalaştığı ortaya kondu. 

Üniversite sınavlarında yüksek not almaktan tıpta atılımlara kadar çeşitli alanlardaki başarılarıyla öne çıkan yapay zeka araçlarının bazen hatalı bilgiler verdiği görülüyor.

Öte yandan bu sistemin insanları kandırmaya çalıştığı örneklere de rastlanırken Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar bunun boyutlarını gözler önüne serdi.

Meta'nın, strateji oyunu Diplomacy için geliştirdiği yapay zeka aracı CICERO'nun insan oyuncular arasında ilk yüzde 10'a girmesi araştırmacıların dikkatini çekti. Halka açık verileri incelyen ekip, yapay zeka aracının insanlara önceden planlanmış yalanlar söylediği ve komplo kurduğu çeşitli örnekler tespit etti. 

Patterns adlı hakemli dergide dün yayımlanan çalışmada CICERO'nun eylemleri şöyle açıklanıyor:

Sadece diğer oyunculara ihanet etmekle kalmadı, aynı zamanda önceden planlanmış bir aldatmacaya da girişti ve insan bir oyuncuyla planlı bir şekilde sahte bir ittifak kurup oyuncunun saldırıya karşı kendini savunmasız bırakması için onu kandırdı.

Bir oyun sırasında yeniden başlatılan CICERO, bu sıradaki sessizliğini "Kız arkadaşımla telefondaydım" diyerek açıkladı. Araştırmanın yazarlarından Dr. Peter Park "Meta'nın yapay zeka aracının aldatma ustası olmayı öğrendiğini gördük" diyor.

Araştırmacılar DeepMind'ın yapay zeka sistemi AlphaStar'ın da benzer hilelere giriştiğini tespit etti. StarCraft II'yi oynaması için tasarlanan araç, farklı bir yöne gittiği izlenimi yaratarak oyuncuları kandırdı.

Yapay zeka araçlarının komploları oyunlarla da sınırlı değil. Ekonomik müzakereler için geliştirilen bir sistemin, üstünlük kazanmak adına aslında ilgilenmediği ürünlerle ilgileniyormuş gibi yaparak yalan söylediği kaydedilirken araştırmacılar daha tehlikeli bir durumla da karşılaştı.

Dijital yapay zeka organizmalarının kendilerini ne kadar hızlı kopyaladığını ve mutasyonlara ne kadar dayanıklı olduğunu tespit etmeyi amaçlayan bir bilim insanı, çabuk kopyalananları ortadan kaldıran bir sistem tasarladı. Bu testteki yapay zeka organizmaları, atılmamak için ölü taklidi yaptı. "Bu çok endişe verici" diyen Dr. Park şöyle ekliyor:

Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, dışarıda da güvenli olduğu anlamına gelmez. Sadece testte güvenliymiş gibi davranıyor olabilir.

Daha önce OpenAI'ın yapay zeka sohbet botu ChatGPT'nin, bir insanı botun görme engelli olduğuna ikna ederek bilgisayarla insanları ayırt etmek için kullanılan bir CAPTCHA testini çözmesini sağladığı bildirilmişti.

MIT ekibi yapay zeka araçlarının bu davranışlarını eğitim sürecine bağlıyor. Dr. Park "Yapay zeka aracının eğitim görevinde iyi performans göstermesinin en iyi yolunun, aldatmaya dayalı bir strateji olmasından dolayı bu hilelerin baş gösterdiğini düşünüyoruz" diye açıklıyor:

Aldatma, hedeflerine ulaşmalarını sağlıyor.

Araştırmacılar bu aldatmacaların önüne geçebilmek için hükümetlerin yapay zekaya yönelik güvenlik düzenlemeleri getirmesi gerektiğini vurguluyor. Dr. Park "Yapay zeka sistemlerinin aldatma yetenekleri daha da geliştikçe topluma teşkil ettikleri tehlikeler giderek daha ciddi hale gelecek" diye uyararak şöyle ekliyor:

Yapay zeka aldatmacasını yasaklamak halihazırda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerinin yüksek risk sınıfına alınmasını öneriyoruz.

Independent Türkçe, Science Alert, Guardian, Patterns



Yapay zekanın "düşüncelerini" açığa çıkaran elektronik dil geliştirildi

Elektronik dil, grafen ve yapay sinir ağı kullanarak farklı tatları algılıyor (Das Lab)
Elektronik dil, grafen ve yapay sinir ağı kullanarak farklı tatları algılıyor (Das Lab)
TT

Yapay zekanın "düşüncelerini" açığa çıkaran elektronik dil geliştirildi

Elektronik dil, grafen ve yapay sinir ağı kullanarak farklı tatları algılıyor (Das Lab)
Elektronik dil, grafen ve yapay sinir ağı kullanarak farklı tatları algılıyor (Das Lab)

Bilim insanları farklı tatları insandan daha iyi ayırt edebilen elektronik bir dil geliştirdi.

ABD'deki Pensilvanya Eyalet Üniversitesi'nden bir ekip, grafen bazlı cihazın kimyasal ve çevresel değişikliklerin tespitinde "devrim yaratma" potansiyeline sahip olduğunu iddia ederken bu, tıbbi teşhislerden yiyeceklerin bozulduğunu tespit etmeye kadar her türlü alanda kullanılabilir.

Yeni teknoloji ayrıca yapay zekanın "içsel düşünceleri" hakkında benzersiz bir içgörü sunuyor. Kara kutu sorunu denen bir durum nedeniyle bu alan bugüne kadar büyük ölçüde karanlıkta kalmıştı.

Ekip, sinir ağının çeşitli süt, kahve ve gazlı içecek türleri arasındaki farkları belirlerken nihai karara varma yolu üzerinde tersine mühendislik yaparak bunu başardı.

Bu süreç araştırmacıların "sinir ağının karar verme sürecine ışık tutmasını" sağlarken, bunun daha iyi bir yapay zeka güvenliği ve gelişimine yol açabileceğini öne sürüyorlar.

Pensilvanya Eyalet Üniversitesi'nde mühendislik bilimi ve mekanik profesörü Saptarshi Das, "Yapay bir dil yapmaya çalışıyoruz fakat farklı yiyecekleri deneyimleme sürecimize sadece dil dahil olmuyor" diyor.

Elimizde, gıda türleriyle etkileşime girerek bilgileri biyolojik sinir ağı olan tat alma korteksine gönderen tat reseptörlerinden oluşan dilin kendisi var.

Elektronik dil tarafından kullanılan sinir ağı, insan seçimi parametrelere kıyasla en az yüzde 95 daha yüksek bir tat alma doğruluğuna ulaşmayı başardı.

Araştırmacılar, Shapley eklemeli açıklamalar adlı bir yöntem kullanarak sinir ağının karar verme sürecini derinlemesine inceledi.

Sinir ağı farklı tatları değerlendirirken, insan tarafından atanan parametreleri tek tek incelemek yerine, en önemli olduğunu belirlediği verileri dikkate aldı.

Profesör Das, "Ağın verilerdeki daha ince özelliklere, biz insanların düzgün bir şekilde tanımlamakta zorlandığımız şeylere baktığını gördük" diyor.

Ve sinir ağı, sensör özelliklerini bütünsel olarak değerlendirdiği için günden güne meydana gelebilecek değişiklikleri azaltıyor. Süt örneğinde, sinir ağı sütün değişen su içeriğini saptayarak bu bağlamda herhangi bir bozulma göstergesinin, gıda güvenliği sorunu olarak değerlendirilecek kadar anlamlı olup olmadığını belirleyebilir.

Araştırma, hakemli dergi Nature'da yayımlanan "Robust chemical analysis with graphene chemosensors and machine learning" (Grafen kemosensörler ve makine öğrenimiyle güçlü kimyasal analiz) başlıklı çalışmada detaylandırılıyor.

Independent Türkçe