Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

İngiliz bir profesör, süper bilgisayarlara gerçek arzularımızla nasıl başa çıkacağını öğretirken felaketten kurtulmayı görüyor

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
TT

Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay

Bill Gates'in geçen günlerde bir yazısında değindiği, süper zeka başta olmak üzere yapay zekanın beraberinde getirebileceği tehlikeler hakkında geniş bir tartışma var.
Gates, bu tür bir zekanın insan zihninin geliştirebileceği her şeyi yapabileceğini, ancak bunu belleğinin boyutuna veya çalışma hızına dayatılan herhangi bir pratik sınır olmaksızın yapabileceğini gördü. Ve sonra, derin bir değişimle karşı karşıya kalacağız.
Ayrıca, Oxford Üniversitesi'ndeki İsveçli filozof ve bilgisayar bilimcisi Nick Bostrom, bu tür bir zekanın içerebileceği tehlikeler hakkında klasik entelektüel düşünceler sunuyor.
Profesör Bostrom, geliştiricileri tarafından ataç üretmek gibi görünüşte zararsız bir amaçla programlanan süper zeki bir robot tasavvur etti. Sonunda robot, tüm dünyayı dev bir ataç fabrikasına dönüştürüyor.
Daha da rahatsız edici bir örnek, bunun dünyanın dört bir yanındaki milyarlarca insanı etkiliyor olması.
İzlenme üresini en üst düzeye çıkarmayı hedefleyen YouTube, bu amaçla yapay zeka tabanlı içerik önerme algoritmalarından yararlanıyor.
İki yıl önce, bilgisayar bilimciler ve kullanıcılar, web sitesinin algoritmasının aşırılık yanlısı ve komplo içeriği önererek izlenme süresini artırma hedefine ulaştığını fark etmeye başladılar.
Bir araştırmacı, eski ABD Başkanı Donald Trump'ın kampanya mitinglerinden görüntüleri gördükten sonra, YouTube'un 'beyaz üstünlüğü, Holokost inkarı ve diğer rahatsız edici içerikler' hakkında rantlarla dolu videolarını gösterdiğini bildirdi.
Belki de YouTube mühendisleri insanları radikalleştirme niyetinde değildi. Sorunun önemli bir yönü, insanların genellikle yapay zeka sistemlerimize hangi hedefleri vereceklerini bilmemeleridir. Çünkü ne istediğimizi bile bilmiyoruz.
Uzun ve ilginç bir makalede Quanta Magazine, bu tür tuzaklardan kaçınmanın yollarından bahsediyor ve bazı araştırmacıların kullanışlı akıllı makineleri programlamak için tamamen yeni bir yol geliştirdiğine dikkat çekiyor.
Yöntem, dünya çapında 1.500'den fazla üniversitede ders kitabı olarak okutulan 'Artificial Intelligence: A Modern Approach' (Yapay Zeka: Modern Bir Yaklaşım) kitabının yazarı bilgisayar bilimi profesörü Stuart J. Russell'ın fikirlerine benziyor.
Russell'ın görüşüne göre, bir makinenin ödülle ilgili işlevlerini geliştirmesini istemek, dengesiz yapay zekaya yol açacaktır.
Çünkü hedefleri, alt hedefleri, istisnaları ve uyarıları ödül işlevine dahil etmek ve her birinin önemini doğru bir şekilde belirlemek, hatta hangisinin doğru olduğunu bilmek imkansız.
Zekalarının sürekli yükselişte olduğu bir zamanda, 'otonom' robotlara hedef vermek tehlikelerle dolu olacaktır.
Zira o, ödül işlevi arayışında acımasız olacak ve onu kapatmamızı engellemeye çalışacaktır.
Buna dayanarak, hedeflerine ulaşmak isteyen makineler yerine, bu yeni düşünceye göre, insan tercihlerini tatmin etmeye çalışmak onlar için daha faydalı.
Yani tek hedefleri bizim tercihlerimizin ne olduğunu daha derinlemesine araştırmak olmalıdır. Russell, 'Human Compatible: Artificial Intelligence and the Problem of Control' (İnsan Uyumlu Yapay Zeka ve Kontrol Problemi) adlı son kitabında tezini, geliştiricilerinin onlardan 'hedeflerine' değil bizim 'hedeflerimize' ulaşmalarını bekledikleri 'üç faydalı makine ilkesi' biçiminde ortaya koydu.
Bu, ünlü bilim kurgu yazarı Isaac Asimov tarafından 1942 yılında formüle edilen 'üç robot yasasını' anımsatıyor.
ABD'li yazar Asimov, 1992 yılında 72 yaşındayken vefat etti. En çok üç robot yasasını oluşturmasıyla tanınır:
1-Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3-Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Russell'ın üç robot yasası ise aşağıdakileri belirtir:
1-Makinenin yegane amacı, insan tercihlerinin optimal olarak gerçekleştirilmesidir.
2-Makine, bu tercihlerin ne olduğundan temel olarak emin olmamalıdır.
3-İnsan tercihleri için birincil bilgi kaynağı insan davranışlarıdır.
Geçen birkaç yılda Russell ve ekibi, yapay zeka sistemlerinin tercihlerimizi tanımlamaya gerek kalmadan keşfetmesi için yenilikçi yollar geliştirmeyi umarak Stanford Üniversitesi, Teksas Üniversitesi ve diğer ülkelerdeki araştırmacı gruplarıyla iş birliği yaptı.
Bu laboratuvarlar, robotlara kendilerini hiç ifade etmemiş insanların tercihlerini nasıl öğreneceklerini öğretiyor ve hatta insanın gizemini çözmeye yardımcı olacak yeni davranışlar geliştirebiliyor.

İnsan böyle anlar
Russell, yıllar önce robotların işinin video izleme süresini artırmak veya ataç yapmak gibi hedeflere ulaşmak değil, sadece hayatımızı iyileştirmeye çalışmak olması gerektiğini anladı.
Bu bağlamda, reinforcement learning (pekiştirmeli öğrenme) bir yapay zeka sisteminin deneme yanılma yoluyla öğrendiği bir makine öğrenimi alt kümesi.
Böylece yapay zeka, birkaç davranışı denedikçe bir oyundaki puanı gibi kendi ödül işlevini geliştirmeyi öğrenir ve ardından ödül işlevinden daha fazla yararlanmak için hangi davranışları pekiştireceğini çözer.
Quanta Magazine web sitesine göre, 1998 yılından beri Russell, asistanı Andrew Ng ile birlikte 'inverse reinforcement learning' (ters pekiştirmeli öğrenme) sistemi denen şeyi yaratmaya koyuldu.
'Pekiştirmeli öğrenme' sistemi, bir hedefe ulaşmak için yapılacak en iyi eylemleri belirlerken 'ters pekiştirmeli öğrenme sistemi' ise bir dizi eylem verildiğinde birincil hedefi çözer.
Russell daha da ileri gitti ve robotun ve insanın çeşitli "yardım oyunlarında insanın gerçek tercihlerini öğrenmek için birlikte çalışmasını sağlamak" anlamına gelen yeni bir 'ters işbirlikçi öğrenme' türü geliştirmek için asistanlarıyla birlikte çalışmaya başladı.
Geliştirdikleri oyunlardan biri olan 'kapatma oyunu', otonom robotların bizim gerçek tercihlerimizden sapmalarının en bariz yollarından biri olan makinelerin kapatma anahtarlarını devre dışı bırakmasıdır.
Russell, 'İnsan Uyumlu Yapay Zeka ve Kontrol Problemi' adlı kitabında, kapatma sorununun "akıllı sistemleri kontrol etme sorununun merkezinde olduğunu" savunuyor.
Russell ayrıca, "Bir makineyi bizi durduracağı için kapatamazsak, gerçekten başımız belada demektir. Ve eğer bunu yapabilirsek, belki onu başka yollarla da kontrol edebiliriz" diyor.
Buna paralel olarak, Scott Newcomb'un Teksas Üniversitesi'ndeki laboratuvarı, gerçek robotlarda tercih ve öğrenme algoritmalarının işleyişi üzerine çalışıyor.
O laboratuvardaki iki kollu bir robot olan Gemini, bir sofra düzeni gösterisinde bir insanın çatalı tabağın soluna koymasını izlediğinde, ilk başta çatalın her zaman tabakların solunda olup olmadığını anlamaz.
Yeni algoritmalar, Gemini'nin birkaç gösteriden sonra modeli öğrenmesine olanak tanıyor.

İnsan davranışı rasyonel değil
Buna karşılık Russell, "ilki davranışımızın rasyonel olmaktan o kadar uzak olması ve gerçek temel tercihlerimizi yeniden yapılandırmanın çok zor olması" olmak üzere iki tür zorluk olduğuna dikkat çekiyor.
Yapay zeka sistemlerinin uzun, orta ve kısa vadeli hedeflerin hiyerarşisini, yani sahip olduğumuz tüm bu sayısız tercih ve taahhütler hakkında düşünmesi gerekecek.
Robotlar bize yardım edeceklerse (ve ciddi hatalar yapmaktan kaçınacaklarsa), bilinçsiz inançlarımızın ve ifade edilmemiş arzularımızın bulanık ağlarını aşmak zorunda kalacaklar.
İkinci zorluk ise insan tercihlerinin değişmesidir. Düşüncelerimiz hayatımız boyunca değişir.
Zira ruh halimize veya değişen koşullara göre sürekli olarak değişir. Bu nedenle bir robotun onları algılaması çok zor olabilir.
Peki ya gelecekte doğacak çok sayıda insan ne olacak?
Makineler onların tercihlerini nasıl dikkate alacak?
Ayrıca, eylemlerimiz bazen ideallerimize uygun düşmez. İnsanlar bile aynı anda çelişen değerlere sahip.
Robotlar gibi biz de tercihlerimizi belirlemeye çalışıyoruz. Mümkün olan en iyi yapay zeka gibi biz de -en azından bazılarımız- iyinin neye benzediğini anlamaya çalışıyoruz.
Bu nedenle, belki de insanlar gibi yapay zeka sistemleri de sonsuza kadar soru sorma girdabında sıkışıp kalabilir.
Ayrıca Russell'ın endişeler listesinde üçüncü bir büyük sorun daha var: kötü insanlar için tercihler.
Peki bir robotun kötü sahibinin amaçlarına hizmet etmesini engelleyen nedir?
Zenginlerin vergi yasalarında boşluklar bulması gibi, yapay zeka sistemleri de tabuları aşmanın yollarını bulma eğiliminde.
Daha karanlık bir sahnede, hepimizin içinde var olan kötülüğü sorabiliriz. Bu konuda Russell iyimser.
Ona göre programcılar, gelecekte ek algoritmalara ve daha fazla araştırmaya ihtiyaç duysalar bile zararlı seçimleri sınırlayabilirler ve aynı yaklaşım "çocuklarımızı yetiştirme şeklimiz" açısından da faydalı olabilir.
Başka bir deyişle, robotlara nasıl iyi olunacağını öğreterek kendimize de iyi olmayı öğretmenin bir yolunu bulabiliriz.

Independent Türkçe



Trump, savaş ve aldatmaca

Trump, savaş ve aldatmaca
TT

Trump, savaş ve aldatmaca

Trump, savaş ve aldatmaca

Steve Hewitt

18 Haziran'da, Beyaz Saray'a iki yeni bayrak direği dikilirken, Başkan Donald Trump ülkenin bayrağını değil, diplomatik aldatmacanın bayrağını göndere çekiyordu. Trump, İsrail'in İran'ı hedef alan saldırılarının ardından İran'a yönelik politikası hakkında belirsiz ifadeler kullanmak için bu anı kullandı. Bayrak direklerinden birinin yanında, kask takmış inşaat işçileriyle çevrili bir şekilde konuşurken, muhabirlerle dallanıp budaklanan bir iletişimde bulundu.

Sahneyi incelerken “Önümüzdeki hafta çok büyük olacak, belki bir haftadan az, belki de daha az” dedi gizemli bir ses tonuyla ve İran ile nükleer programı hakkında diplomatik görüşmelerin hâlâ mümkün olduğuna işaret etti.

Ertesi gün, Beyaz Saray Basın Sekreteri Trump'ın “önümüzdeki iki hafta içinde savaşa girip girmeme konusunda bir karar vereceğini” söyleyen bir açıklamasını okudu.

Bu, kasıtlı bir aldatmacaydı, çünkü karar çoktan verilmişti ve Amerikan B-2 bombardıman uçaklarına iki gün sonra Missouri'deki üslerinden kalkış yaparak, yaklaşık 30 bin pound ağırlığında birkaç bombayı İran nükleer tesislerinin üzerine bırakmak üzere 37 saatlik bir gidiş-dönüş görevine hazır olmaları emri verilmişti.

Bu Amerikan aldatmacası, İsrail aldatmacasının ardından geldi; İsrail, Tahran'ın ABD ile görüşmeleri devam ederken ve saldırıdan iki gün sonra bir toplantı planlanmışken İran’ın nükleer programını hedef almıştı.

Bir düşmanı aldatmak için aldatmacaya başvurmak yeni bir şey değil. Tarih boyunca bu tür davranışların sayısız örneği var

Buradaki soru şu: Devletler arasında bu tür aldatıcı diplomatik davranışlar ne kadar yaygındır? Bu davranışlar kesinlikle nadir ve bu örnek, Soğuk Savaş'ın sona ermesinden bu yana büyüyen ve uluslararası ilişkilerdeki yerleşik normlardan giderek daha fazla sapan bir hareketin varlığına dair bir kanıt daha sunuyor.

Bir düşmanı aldatmak için aldatmacaya başvurmak yeni bir şey değil. Tarih boyunca bu tür davranışların sayısız örneği var. Ancak önemli fark, aldatmanın tarihsel örneklerinin (daha sonra ele alacağım birkaç istisna dışında) genellikle farklı taraflar arasındaki veya son birkaç yüzyılda ulus devletler arasındaki devam eden çatışmalar sırasında uygulanmış olmasıdır.

grtyuı
ABD Başkanı Donald Trump (Reuters)

Savaşta düşmanı aldatmanın en ünlü örneği binlerce yıl öncesine dayanan ve İngilizcede aldatmanın yaygın bir simgesi haline gelen Truva Atı'dır. Truva ile savaşan Yunan orduları savaş alanını terk etmiş ve Truvalı düşmanlarına bir barış hediyesi olarak büyük bir tahta at bırakmış gibi yaparlar. Elbette atın içinde Yunan askerleri saklanmışlardı, bunlar daha sonra ortaya çıkıp, Truvalıları yenerek şehirlerini ele geçirdiler.

Tiyatro ve filmler yoluyla popüler kültürde kendisine yer bulan önemli bir çağdaş örnekse, İkinci Dünya Savaşı'ndaki Mincemeat (Kıyma) Operasyonu'dur. Bu operasyonda İngiliz istihbaratı Nazi Almanyası'nı 1943'te planlanan Sicilya işgali konusunda yanıltmayı amaçlıyordu. Kraliyet Donanması subayı üniforması giydirilmiş bir serserinin cesedi İspanya kıyılarına atılmış ve cebine Almanları işgalin gerçek hedefinin Sicilya değil Sardunya olduğuna ikna etmek için sahte planlar yerleştirilmişti. Bir yıl sonra, Müttefikler Nazileri benzer bir şekilde aldatmaya çalışarak, uzun zamandır beklenen Fransa çıkarmasının 6 Haziran 1944'te gerçekleştiği gibi Normandiya sahillerinden değil, Pas de Calais'den gerçekleşeceğine ikna etmeye çalışmışlardı.

Bir hükümet, yalnızca bir saldırıyı kamufle etmek amacıyla bir düşmanla neden diplomatik görüşmelere girişsin ki?

Peki ya aldatıcı diplomasi? Diplomasi doğası gereği, müzakereler sırasında güvenilirliği sağlamak için aldatma riskini azaltmalıdır. Ne de olsa, bir hükümet, yalnızca bir saldırıyı kamufle etmek amacıyla bir düşmanla neden diplomatik görüşmelere girişsin ki? Bu durumda bu tür örneklerin nadir görülmesi belki de şaşırtıcı değil. Zira tarihi model, bu tür diplomatik aldatmaya en istekli ülkelerin doğası gereği otoriter olma eğiliminde olduğunu gösteriyor.

ghyjukı
Haziran 1940’da Fransa-Belçika sınırındaki Nazi birliklerini ziyareti sırasında, Birinci Dünya Savaşı’nda ölen askerleri onurlandırmak için Alman Langemark Mezarlığı’na yaptığı ziyaret sırasında Hitler (AFP)

Nazi Almanyası bu tür uygulamalarda ön saflardaydı, yüzyıllardır süregelen normları sürekli ihlal etti ve Holokost sırasında büyük ölçekte kitlesel cinayetler işledi. 1939'da savaşın patlak vermesinden önce Naziler aldatıcı diplomasiye başvurdular. 1938 Münih Konferansı bu tür uygulamaların başlıca örneği olarak öne çıkmaktadır ve 21. yüzyılda kendisine sıklıkla atıfta bulunulmaya devam edilmektedir.

Bilindiği üzere Münih Konferansı Çekoslovakya ve ülkenin nüfusun çoğunluğunun Almanca konuştuğu Sudetenland olarak bilinen bölümüne odaklanmıştı. Adolf Hitler liderliğindeki Naziler, Büyük Almanya projelerinin bir parçası olarak bölgeyi ilhak etmeye çalıştılar. Nazi Almanyası'nı kontrol altına almak ve bir Avrupa savaşından kaçınmak amacıyla Fransa ve Birleşik Krallık liderleri Eylül 1938'in sonlarında Münih'te Hitler ile bir araya geldiler.

Donald Trump, emlak dünyasında şüpheli iş uygulamalarıyla ünlendi. İlk döneminde Beyaz Saray'a girdiğinde, bu alışkanlıkları bir nebze olsun dizginleyebilecek profesyonellerle çevriliydi

Çekoslovak hükümetini görmezden gelerek, liderler Sudetenland'ı Almanya'ya devretme konusunda bir anlaşmaya vardılar. Hitler, Almanya'nın Avrupa'da hiçbir toprakta emelleri olmayacağına söz verdi.

Tarihin bize anlattığı gibi, memnun etme politikası Hitler'i Nazi saldırganlığından vazgeçiremedi. Nitekim Münih toplantısından aylar önce, daha büyük bir Avrupa çatışması için daha geniş askeri hazırlıklarla birlikte Çekoslovakya'yı işgal etme planlarını onaylamıştı. Mart 1939'da Almanya, Çekoslovakya'nın geri kalanını da işgal etti.

Ağustos 1939'da, Naziler Polonya'yı işgal etmeye hazırlanırken Hitler'in elinde başka bir diplomatik numara daha vardı. Hükümeti, Joseph Stalin ve Sovyetler Birliği ile Doğu Avrupa'yı paylaşmaya yönelik iki ülke arasında gizli bir anlaşmayı içeren bir saldırmazlık paktı imzaladı. Ancak Hitler, anlaşmayı yalnızca geçici bir önlem olarak görüyordu, zira Nazi ideolojisi uzun zamandır Sovyetler Birliği'nin bazı kısımları da dahil olmak üzere Doğu Avrupa topraklarını kapsayacak Büyük Almanya idealini benimsiyordu. Sonuç olarak, anlaşmaya yalnızca Sovyetler Birliği'ne yönelik Alman saldırısı ve 22 Haziran 1941'de başlayan Barbarossa Harekatı hazırlıklarına dair istihbarat raporlarına ve diğer kanıtlara inanmayı defalarca reddeden Stalin kanmış görünüyor.

ymum
Tahran'ın merkezinde, hizmette olan İran balistik füzelerini tasvir eden ve Farsça “İsrail bir örümcek ağından daha zayıftır” yazan bir reklam panosu, 15 Nisan 2024 (AFP)

Şarku’l Avsat’ın Al Majalla’dan aktardığı analize göre geçmişteki dersler göz önüne alındığında, ABD'nin İran'a karşı eyleminin korkunç sonuçları olabilir. Askeri saldırılar düzenlemek için bir kamuflaj olarak görüşmelerin kullanıldığı İran örneği göz önüne alındığında, herhangi bir hükümet, hatta ABD'ye karşı sınırlı bir düşmanlığı olan bir hükümet bile neden diplomatik görüşmelere katılsın ki? Örneğin Kuzey Kore, Trump yönetimi de dahil olmak üzere ABD yönetimleri ile gelecekte herhangi bir diplomatik görüşmede bulunmaya meyilli olur mu? Bilhassa İsrail'e olan mutlak desteği göz önüne alındığında, ABD'nin dürüst bir aracı olduğu fikri uzun zamandır sorgulanırken, bugünkü eylemleri bu fikri tam anlamıyla paramparça ediyor.

Donald Trump, emlak dünyasında şüpheli iş uygulamalarıyla ünlendi. İlk döneminde Beyaz Saray'a girdiğinde, bu alışkanlıkları bir nebze olsun dizginleyebilecek profesyonellerle çevriliydi. İkinci döneminde ise yakın çevresi pozisyonlarını neredeyse yalnızca Trump'a olan mutlak sadakatleri sayesinde koruyor. Yönetiminin hem içeride hem de uluslararası alandaki yaklaşımı, gittikçe Trump'ın kişisel değerlerini yansıtıyor.