Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

İngiliz bir profesör, süper bilgisayarlara gerçek arzularımızla nasıl başa çıkacağını öğretirken felaketten kurtulmayı görüyor

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
TT

Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay

Bill Gates'in geçen günlerde bir yazısında değindiği, süper zeka başta olmak üzere yapay zekanın beraberinde getirebileceği tehlikeler hakkında geniş bir tartışma var.
Gates, bu tür bir zekanın insan zihninin geliştirebileceği her şeyi yapabileceğini, ancak bunu belleğinin boyutuna veya çalışma hızına dayatılan herhangi bir pratik sınır olmaksızın yapabileceğini gördü. Ve sonra, derin bir değişimle karşı karşıya kalacağız.
Ayrıca, Oxford Üniversitesi'ndeki İsveçli filozof ve bilgisayar bilimcisi Nick Bostrom, bu tür bir zekanın içerebileceği tehlikeler hakkında klasik entelektüel düşünceler sunuyor.
Profesör Bostrom, geliştiricileri tarafından ataç üretmek gibi görünüşte zararsız bir amaçla programlanan süper zeki bir robot tasavvur etti. Sonunda robot, tüm dünyayı dev bir ataç fabrikasına dönüştürüyor.
Daha da rahatsız edici bir örnek, bunun dünyanın dört bir yanındaki milyarlarca insanı etkiliyor olması.
İzlenme üresini en üst düzeye çıkarmayı hedefleyen YouTube, bu amaçla yapay zeka tabanlı içerik önerme algoritmalarından yararlanıyor.
İki yıl önce, bilgisayar bilimciler ve kullanıcılar, web sitesinin algoritmasının aşırılık yanlısı ve komplo içeriği önererek izlenme süresini artırma hedefine ulaştığını fark etmeye başladılar.
Bir araştırmacı, eski ABD Başkanı Donald Trump'ın kampanya mitinglerinden görüntüleri gördükten sonra, YouTube'un 'beyaz üstünlüğü, Holokost inkarı ve diğer rahatsız edici içerikler' hakkında rantlarla dolu videolarını gösterdiğini bildirdi.
Belki de YouTube mühendisleri insanları radikalleştirme niyetinde değildi. Sorunun önemli bir yönü, insanların genellikle yapay zeka sistemlerimize hangi hedefleri vereceklerini bilmemeleridir. Çünkü ne istediğimizi bile bilmiyoruz.
Uzun ve ilginç bir makalede Quanta Magazine, bu tür tuzaklardan kaçınmanın yollarından bahsediyor ve bazı araştırmacıların kullanışlı akıllı makineleri programlamak için tamamen yeni bir yol geliştirdiğine dikkat çekiyor.
Yöntem, dünya çapında 1.500'den fazla üniversitede ders kitabı olarak okutulan 'Artificial Intelligence: A Modern Approach' (Yapay Zeka: Modern Bir Yaklaşım) kitabının yazarı bilgisayar bilimi profesörü Stuart J. Russell'ın fikirlerine benziyor.
Russell'ın görüşüne göre, bir makinenin ödülle ilgili işlevlerini geliştirmesini istemek, dengesiz yapay zekaya yol açacaktır.
Çünkü hedefleri, alt hedefleri, istisnaları ve uyarıları ödül işlevine dahil etmek ve her birinin önemini doğru bir şekilde belirlemek, hatta hangisinin doğru olduğunu bilmek imkansız.
Zekalarının sürekli yükselişte olduğu bir zamanda, 'otonom' robotlara hedef vermek tehlikelerle dolu olacaktır.
Zira o, ödül işlevi arayışında acımasız olacak ve onu kapatmamızı engellemeye çalışacaktır.
Buna dayanarak, hedeflerine ulaşmak isteyen makineler yerine, bu yeni düşünceye göre, insan tercihlerini tatmin etmeye çalışmak onlar için daha faydalı.
Yani tek hedefleri bizim tercihlerimizin ne olduğunu daha derinlemesine araştırmak olmalıdır. Russell, 'Human Compatible: Artificial Intelligence and the Problem of Control' (İnsan Uyumlu Yapay Zeka ve Kontrol Problemi) adlı son kitabında tezini, geliştiricilerinin onlardan 'hedeflerine' değil bizim 'hedeflerimize' ulaşmalarını bekledikleri 'üç faydalı makine ilkesi' biçiminde ortaya koydu.
Bu, ünlü bilim kurgu yazarı Isaac Asimov tarafından 1942 yılında formüle edilen 'üç robot yasasını' anımsatıyor.
ABD'li yazar Asimov, 1992 yılında 72 yaşındayken vefat etti. En çok üç robot yasasını oluşturmasıyla tanınır:
1-Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3-Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Russell'ın üç robot yasası ise aşağıdakileri belirtir:
1-Makinenin yegane amacı, insan tercihlerinin optimal olarak gerçekleştirilmesidir.
2-Makine, bu tercihlerin ne olduğundan temel olarak emin olmamalıdır.
3-İnsan tercihleri için birincil bilgi kaynağı insan davranışlarıdır.
Geçen birkaç yılda Russell ve ekibi, yapay zeka sistemlerinin tercihlerimizi tanımlamaya gerek kalmadan keşfetmesi için yenilikçi yollar geliştirmeyi umarak Stanford Üniversitesi, Teksas Üniversitesi ve diğer ülkelerdeki araştırmacı gruplarıyla iş birliği yaptı.
Bu laboratuvarlar, robotlara kendilerini hiç ifade etmemiş insanların tercihlerini nasıl öğreneceklerini öğretiyor ve hatta insanın gizemini çözmeye yardımcı olacak yeni davranışlar geliştirebiliyor.

İnsan böyle anlar
Russell, yıllar önce robotların işinin video izleme süresini artırmak veya ataç yapmak gibi hedeflere ulaşmak değil, sadece hayatımızı iyileştirmeye çalışmak olması gerektiğini anladı.
Bu bağlamda, reinforcement learning (pekiştirmeli öğrenme) bir yapay zeka sisteminin deneme yanılma yoluyla öğrendiği bir makine öğrenimi alt kümesi.
Böylece yapay zeka, birkaç davranışı denedikçe bir oyundaki puanı gibi kendi ödül işlevini geliştirmeyi öğrenir ve ardından ödül işlevinden daha fazla yararlanmak için hangi davranışları pekiştireceğini çözer.
Quanta Magazine web sitesine göre, 1998 yılından beri Russell, asistanı Andrew Ng ile birlikte 'inverse reinforcement learning' (ters pekiştirmeli öğrenme) sistemi denen şeyi yaratmaya koyuldu.
'Pekiştirmeli öğrenme' sistemi, bir hedefe ulaşmak için yapılacak en iyi eylemleri belirlerken 'ters pekiştirmeli öğrenme sistemi' ise bir dizi eylem verildiğinde birincil hedefi çözer.
Russell daha da ileri gitti ve robotun ve insanın çeşitli "yardım oyunlarında insanın gerçek tercihlerini öğrenmek için birlikte çalışmasını sağlamak" anlamına gelen yeni bir 'ters işbirlikçi öğrenme' türü geliştirmek için asistanlarıyla birlikte çalışmaya başladı.
Geliştirdikleri oyunlardan biri olan 'kapatma oyunu', otonom robotların bizim gerçek tercihlerimizden sapmalarının en bariz yollarından biri olan makinelerin kapatma anahtarlarını devre dışı bırakmasıdır.
Russell, 'İnsan Uyumlu Yapay Zeka ve Kontrol Problemi' adlı kitabında, kapatma sorununun "akıllı sistemleri kontrol etme sorununun merkezinde olduğunu" savunuyor.
Russell ayrıca, "Bir makineyi bizi durduracağı için kapatamazsak, gerçekten başımız belada demektir. Ve eğer bunu yapabilirsek, belki onu başka yollarla da kontrol edebiliriz" diyor.
Buna paralel olarak, Scott Newcomb'un Teksas Üniversitesi'ndeki laboratuvarı, gerçek robotlarda tercih ve öğrenme algoritmalarının işleyişi üzerine çalışıyor.
O laboratuvardaki iki kollu bir robot olan Gemini, bir sofra düzeni gösterisinde bir insanın çatalı tabağın soluna koymasını izlediğinde, ilk başta çatalın her zaman tabakların solunda olup olmadığını anlamaz.
Yeni algoritmalar, Gemini'nin birkaç gösteriden sonra modeli öğrenmesine olanak tanıyor.

İnsan davranışı rasyonel değil
Buna karşılık Russell, "ilki davranışımızın rasyonel olmaktan o kadar uzak olması ve gerçek temel tercihlerimizi yeniden yapılandırmanın çok zor olması" olmak üzere iki tür zorluk olduğuna dikkat çekiyor.
Yapay zeka sistemlerinin uzun, orta ve kısa vadeli hedeflerin hiyerarşisini, yani sahip olduğumuz tüm bu sayısız tercih ve taahhütler hakkında düşünmesi gerekecek.
Robotlar bize yardım edeceklerse (ve ciddi hatalar yapmaktan kaçınacaklarsa), bilinçsiz inançlarımızın ve ifade edilmemiş arzularımızın bulanık ağlarını aşmak zorunda kalacaklar.
İkinci zorluk ise insan tercihlerinin değişmesidir. Düşüncelerimiz hayatımız boyunca değişir.
Zira ruh halimize veya değişen koşullara göre sürekli olarak değişir. Bu nedenle bir robotun onları algılaması çok zor olabilir.
Peki ya gelecekte doğacak çok sayıda insan ne olacak?
Makineler onların tercihlerini nasıl dikkate alacak?
Ayrıca, eylemlerimiz bazen ideallerimize uygun düşmez. İnsanlar bile aynı anda çelişen değerlere sahip.
Robotlar gibi biz de tercihlerimizi belirlemeye çalışıyoruz. Mümkün olan en iyi yapay zeka gibi biz de -en azından bazılarımız- iyinin neye benzediğini anlamaya çalışıyoruz.
Bu nedenle, belki de insanlar gibi yapay zeka sistemleri de sonsuza kadar soru sorma girdabında sıkışıp kalabilir.
Ayrıca Russell'ın endişeler listesinde üçüncü bir büyük sorun daha var: kötü insanlar için tercihler.
Peki bir robotun kötü sahibinin amaçlarına hizmet etmesini engelleyen nedir?
Zenginlerin vergi yasalarında boşluklar bulması gibi, yapay zeka sistemleri de tabuları aşmanın yollarını bulma eğiliminde.
Daha karanlık bir sahnede, hepimizin içinde var olan kötülüğü sorabiliriz. Bu konuda Russell iyimser.
Ona göre programcılar, gelecekte ek algoritmalara ve daha fazla araştırmaya ihtiyaç duysalar bile zararlı seçimleri sınırlayabilirler ve aynı yaklaşım "çocuklarımızı yetiştirme şeklimiz" açısından da faydalı olabilir.
Başka bir deyişle, robotlara nasıl iyi olunacağını öğreterek kendimize de iyi olmayı öğretmenin bir yolunu bulabiliriz.

Independent Türkçe



Hindistan ve Pakistan neden diğer ülkeler gibi savaşmıyor?

Hindistan ile Pakistan arasındaki Wagah Sınır Kapısı yakınlarında duran Hindistan Sınır Güvenlik Güçleri (AFP)
Hindistan ile Pakistan arasındaki Wagah Sınır Kapısı yakınlarında duran Hindistan Sınır Güvenlik Güçleri (AFP)
TT

Hindistan ve Pakistan neden diğer ülkeler gibi savaşmıyor?

Hindistan ile Pakistan arasındaki Wagah Sınır Kapısı yakınlarında duran Hindistan Sınır Güvenlik Güçleri (AFP)
Hindistan ile Pakistan arasındaki Wagah Sınır Kapısı yakınlarında duran Hindistan Sınır Güvenlik Güçleri (AFP)

AP, Hindistan ve Pakistan arasındaki gerilime dikkat çekerek, iki ülkenin 1947'de İngiltere'den bağımsızlıklarını kazanmalarından bu yana üç büyük çaplı savaşa sahne olduğunu belirtti. İki komşu ayrıca, dünyanın en soğuk ve en yüksek rakımlı savaş alanı olarak tanımlanan bir buzulun tepesindeki çatışma da dahil olmak üzere onlarca çatışmaya tanık oldular.

Son gerginlik, Hindistan'ın Pakistan'ı suçladığı, İslamabad'ın ise herhangi bir dahli olduğunu reddettiği, turistlere yönelik ölümcül bir silahlı saldırının ardından yaşandı.

Hindistan ve Pakistan diğer ülkeler gibi savaşmıyor. Buradaki başat faktör, büyük saldırıları caydırmanın ayırt edici bir aracı ve durum kötüleşse bile çatışmanın kontrolden çıkmayacağının garantisi olan nükleer cephanelikleri.

Ncjxj
 Keşmir'in Pakistan tarafından yönetilen kısmının başkenti Muzafferabad'da Hindistan saldırıları sonucu yıkılan bir caminin yakınında nöbet tutan askerler (AFP)

Hindistan ve Pakistan neden bu şekilde savaşıyor? Çünkü nükleer cephanelikleri birbirlerini yok edebilecek kapasitede.

Şarku’l Avsat’ın AP’den aktardığına göre konuyla ilgili açıklamalarda bulunan Pakistanlı güvenlik analisti Seyyid Muhammed Ali şu ifadeleri kullandı: “Pakistan ve Hindistan diğer tarafı defalarca yok etmeye yetecek kadar nükleer silaha sahip. Nükleer silahları, Karşılıklı Garantili İmha (MAD) senaryosu yaratıyor. Her iki ülke de stoklarının boyutunu ve kapsamını diğerine MAD garantisini hatırlatacak şekilde bilinçli olarak geliştirdi.”

Her iki ülke de nükleer kapasitelerini açıklamıyor, ancak her birinin 170 ila 180 arasında kısa, uzun ve orta menzilli savaş başlığına sahip olduğuna inanılıyor. Her iki ülke de bu silahları hedeflerine ulaştırmak için farklı sistemlere sahip.

Ali, cephaneliklerin daha fazla çatışmayı önlemek ve caydırmak için savunma amaçlı bir hamle olduğunu, çünkü ‘iki tarafın da böyle bir savaşı başlatmayı göze alamayacağını ya da bundan bir şey elde etmeyi umamayacağını’ söylüyor.

İlk bakışta öyle gelmeyebilir ama nükleer silahlar karşı tarafa aşırı tepki veremeyeceğini hatırlatır. Ancak cephaneliklerini çevreleyen gizlilik, Pakistan ya da Hindistan'ın nükleer bir ilk saldırıda hayatta kalıp kalamayacağının ve ‘ikinci saldırı kabiliyeti’ olarak adlandırılan misilleme yapıp yapamayacağının belirsiz olduğu anlamına geliyor.

Jfjfj
Pakistan'ın Lahor kenti yakınlarında Hindistan saldırısında hasar gören hükümet sağlık ve eğitim kompleksinin yönetim binası önünde duran arama kurtarma görevlileri (Reuters)

Bu kabiliyet, nükleer gerilime yol açabilecek saldırganlığı önleyerek bir düşmanın ilk saldırı yoluyla nükleer bir savaşı kazanmaya çalışmasını engeller. Bu kabiliyet olmadan, teoride, bir tarafın diğerine savaş başlığı fırlatmasını engelleyecek hiçbir şey yoktur.

Keşmir anlaşmazlığın merkezinde

Hindistan ve Pakistan, her birinin bağımsızlığını kazandığı 1947'den bu yana Keşmir üzerinde hak iddia ediyor ve sınır çatışmaları on yıllardır bölgeyi istikrarsızlaştırıyor.

Keşmir, Hindistan yönetimine karşı direnen silahlı isyancıların bulunduğu, iki ülke arasında bölünmüş tartışmalı bir Himalaya bölgesidir.

Her iki ülke de Keşmir'in bir bölümünü kontrol ediyor. Bölge yoğun bir şekilde askerileştirilmiş bir sınırla bölünmüş durumda.

Ezeli rakipler üç savaşlarından ikisini de Keşmir için yapmışlardır.

Birçok Keşmirli Müslüman, isyancıların bölgeyi Pakistan yönetimi altında ya da bağımsız bir devlet olarak birleştirme hedefini destekliyor.

Hindistan kontrolündeki Keşmir'de yaşanan sınır çatışmaları ve militan saldırıları Yeni Delhi'nin İslamabad'a karşı giderek daha sert bir tutum takınmasına ve onu ‘terörizmle’ suçlamasına neden oldu.

Son çatışmada Hindistan, geçen ay gerçekleşen silahlı katliamla bağlantılı olarak Pakistan destekli militanlar tarafından kullanılan yerleri vurarak Pakistan'ı cezalandırdı.

Geleneksel askeri dengesizlik

Uluslararası Stratejik Araştırmalar Enstitüsü'nün (IISS) Askeri Denge Raporu'na göre Hindistan 2025 yılında 74,4 milyar dolar harcamayla dünyanın en büyük savunma harcaması yapan ülkesi ve dünyanın en büyük silah ithalatçılarından biri.

Pakistan ise geçen yıl 10 milyar dolar harcadı. Pakistan, komşusuna kıyasla iki kat daha fazla aktif silahlı kuvvete sahip olan zengin Hindistan'la asla boy ölçüşemez.

Hindistan'ın silahlı kuvvetleri geleneksel olarak Pakistan'a odaklanmış olsa da, mücadele etmesi gereken bir başka nükleer komşusu da Çin. Hindistan, Hint Okyanusu'ndaki deniz güvenliği konusunda giderek daha fazla endişe duyuyor.

Bunlar Pakistan'ın güvenlik modelinde dikkate almak zorunda olmadığı iki faktör.

Pakistan'ın uzun ve dar yapısı, ordunun dış politikadaki büyük rolü ile birleşince silahlı kuvvetlerin hareketli olmasını ve savunmaya öncelik vermesini kolaylaştırıyor.

Tırmanma ve gerilimi azaltma modeli

Ne Pakistan ne de Hindistan diğerine karşı askeri hamlelerini duyurmak için acele etmiyor. Mevcut düşmanlıkların alevlenmesinden de anlaşılacağı üzere, saldırıların ve misillemelerin teyit edilmesi biraz zaman alabilir.

Ancak her ikisi de diğerinin kontrolündeki topraklarda ve hava sahasında operasyonlar yürütüyor.

Bu operasyonlar bazen kontrol noktalarına, tesislere ya da militanlar tarafından kullanıldığı iddia edilen yerlere zarar vermeyi amaçlıyor. Aynı zamanda liderleri kamuoyunun baskısına boyun eğmeye ve yanlış hesaplama potansiyeline sahip bir şekilde karşılık vermeye zorlamak, onları utandırmak veya kışkırtmak da amaçlanıyor.

Bu faaliyetlerin çoğu Keşmir'i Hindistan ve Pakistan arasında bölen Kontrol Hattı boyunca gerçekleşiyor.

Jfjdj
Hindistan ile Pakistan arasındaki Wagah Sınır Kapısı yakınlarında duran Hindistan Sınır Güvenlik Güçleri (AFP)

Bu hattın medya ve kamuoyundan büyük ölçüde izole edilmiş olması, saldırı veya misilleme iddialarının bağımsız olarak doğrulanmasını zorlaştırıyor.

Bu tür olaylar, iki ülkenin nükleer kapasiteleri göz önüne alındığında uluslararası endişeleri arttırmakta, dikkatleri Hindistan ve Pakistan'a ve nihayetinde Keşmir üzerindeki rekabet eden iddialarına geri çekmektedir.

Her iki ülkenin de kaynaklar için rekabet etmesini gerektirecek bir durum söz konusu değil

Pakistan'ın muazzam bir maden zenginliği var, ancak Hindistan'ın bundan faydalanmak gibi bir arzusu yok. Hinduların çoğunlukta olduğu Hindistan ile Müslümanların çoğunlukta olduğu Pakistan arasında temel ideolojik farklılıklar olsa da birbirlerine hükmetmek ya da birbirlerini etkilemek gibi bir amaçları yok.

Keşmir dışında birbirlerinin topraklarında hak iddia etmek ya da hegemonya kurmak gibi bir niyetleri de yok.