Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

İngiliz bir profesör, süper bilgisayarlara gerçek arzularımızla nasıl başa çıkacağını öğretirken felaketten kurtulmayı görüyor

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
TT

Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay

Bill Gates'in geçen günlerde bir yazısında değindiği, süper zeka başta olmak üzere yapay zekanın beraberinde getirebileceği tehlikeler hakkında geniş bir tartışma var.
Gates, bu tür bir zekanın insan zihninin geliştirebileceği her şeyi yapabileceğini, ancak bunu belleğinin boyutuna veya çalışma hızına dayatılan herhangi bir pratik sınır olmaksızın yapabileceğini gördü. Ve sonra, derin bir değişimle karşı karşıya kalacağız.
Ayrıca, Oxford Üniversitesi'ndeki İsveçli filozof ve bilgisayar bilimcisi Nick Bostrom, bu tür bir zekanın içerebileceği tehlikeler hakkında klasik entelektüel düşünceler sunuyor.
Profesör Bostrom, geliştiricileri tarafından ataç üretmek gibi görünüşte zararsız bir amaçla programlanan süper zeki bir robot tasavvur etti. Sonunda robot, tüm dünyayı dev bir ataç fabrikasına dönüştürüyor.
Daha da rahatsız edici bir örnek, bunun dünyanın dört bir yanındaki milyarlarca insanı etkiliyor olması.
İzlenme üresini en üst düzeye çıkarmayı hedefleyen YouTube, bu amaçla yapay zeka tabanlı içerik önerme algoritmalarından yararlanıyor.
İki yıl önce, bilgisayar bilimciler ve kullanıcılar, web sitesinin algoritmasının aşırılık yanlısı ve komplo içeriği önererek izlenme süresini artırma hedefine ulaştığını fark etmeye başladılar.
Bir araştırmacı, eski ABD Başkanı Donald Trump'ın kampanya mitinglerinden görüntüleri gördükten sonra, YouTube'un 'beyaz üstünlüğü, Holokost inkarı ve diğer rahatsız edici içerikler' hakkında rantlarla dolu videolarını gösterdiğini bildirdi.
Belki de YouTube mühendisleri insanları radikalleştirme niyetinde değildi. Sorunun önemli bir yönü, insanların genellikle yapay zeka sistemlerimize hangi hedefleri vereceklerini bilmemeleridir. Çünkü ne istediğimizi bile bilmiyoruz.
Uzun ve ilginç bir makalede Quanta Magazine, bu tür tuzaklardan kaçınmanın yollarından bahsediyor ve bazı araştırmacıların kullanışlı akıllı makineleri programlamak için tamamen yeni bir yol geliştirdiğine dikkat çekiyor.
Yöntem, dünya çapında 1.500'den fazla üniversitede ders kitabı olarak okutulan 'Artificial Intelligence: A Modern Approach' (Yapay Zeka: Modern Bir Yaklaşım) kitabının yazarı bilgisayar bilimi profesörü Stuart J. Russell'ın fikirlerine benziyor.
Russell'ın görüşüne göre, bir makinenin ödülle ilgili işlevlerini geliştirmesini istemek, dengesiz yapay zekaya yol açacaktır.
Çünkü hedefleri, alt hedefleri, istisnaları ve uyarıları ödül işlevine dahil etmek ve her birinin önemini doğru bir şekilde belirlemek, hatta hangisinin doğru olduğunu bilmek imkansız.
Zekalarının sürekli yükselişte olduğu bir zamanda, 'otonom' robotlara hedef vermek tehlikelerle dolu olacaktır.
Zira o, ödül işlevi arayışında acımasız olacak ve onu kapatmamızı engellemeye çalışacaktır.
Buna dayanarak, hedeflerine ulaşmak isteyen makineler yerine, bu yeni düşünceye göre, insan tercihlerini tatmin etmeye çalışmak onlar için daha faydalı.
Yani tek hedefleri bizim tercihlerimizin ne olduğunu daha derinlemesine araştırmak olmalıdır. Russell, 'Human Compatible: Artificial Intelligence and the Problem of Control' (İnsan Uyumlu Yapay Zeka ve Kontrol Problemi) adlı son kitabında tezini, geliştiricilerinin onlardan 'hedeflerine' değil bizim 'hedeflerimize' ulaşmalarını bekledikleri 'üç faydalı makine ilkesi' biçiminde ortaya koydu.
Bu, ünlü bilim kurgu yazarı Isaac Asimov tarafından 1942 yılında formüle edilen 'üç robot yasasını' anımsatıyor.
ABD'li yazar Asimov, 1992 yılında 72 yaşındayken vefat etti. En çok üç robot yasasını oluşturmasıyla tanınır:
1-Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3-Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Russell'ın üç robot yasası ise aşağıdakileri belirtir:
1-Makinenin yegane amacı, insan tercihlerinin optimal olarak gerçekleştirilmesidir.
2-Makine, bu tercihlerin ne olduğundan temel olarak emin olmamalıdır.
3-İnsan tercihleri için birincil bilgi kaynağı insan davranışlarıdır.
Geçen birkaç yılda Russell ve ekibi, yapay zeka sistemlerinin tercihlerimizi tanımlamaya gerek kalmadan keşfetmesi için yenilikçi yollar geliştirmeyi umarak Stanford Üniversitesi, Teksas Üniversitesi ve diğer ülkelerdeki araştırmacı gruplarıyla iş birliği yaptı.
Bu laboratuvarlar, robotlara kendilerini hiç ifade etmemiş insanların tercihlerini nasıl öğreneceklerini öğretiyor ve hatta insanın gizemini çözmeye yardımcı olacak yeni davranışlar geliştirebiliyor.

İnsan böyle anlar
Russell, yıllar önce robotların işinin video izleme süresini artırmak veya ataç yapmak gibi hedeflere ulaşmak değil, sadece hayatımızı iyileştirmeye çalışmak olması gerektiğini anladı.
Bu bağlamda, reinforcement learning (pekiştirmeli öğrenme) bir yapay zeka sisteminin deneme yanılma yoluyla öğrendiği bir makine öğrenimi alt kümesi.
Böylece yapay zeka, birkaç davranışı denedikçe bir oyundaki puanı gibi kendi ödül işlevini geliştirmeyi öğrenir ve ardından ödül işlevinden daha fazla yararlanmak için hangi davranışları pekiştireceğini çözer.
Quanta Magazine web sitesine göre, 1998 yılından beri Russell, asistanı Andrew Ng ile birlikte 'inverse reinforcement learning' (ters pekiştirmeli öğrenme) sistemi denen şeyi yaratmaya koyuldu.
'Pekiştirmeli öğrenme' sistemi, bir hedefe ulaşmak için yapılacak en iyi eylemleri belirlerken 'ters pekiştirmeli öğrenme sistemi' ise bir dizi eylem verildiğinde birincil hedefi çözer.
Russell daha da ileri gitti ve robotun ve insanın çeşitli "yardım oyunlarında insanın gerçek tercihlerini öğrenmek için birlikte çalışmasını sağlamak" anlamına gelen yeni bir 'ters işbirlikçi öğrenme' türü geliştirmek için asistanlarıyla birlikte çalışmaya başladı.
Geliştirdikleri oyunlardan biri olan 'kapatma oyunu', otonom robotların bizim gerçek tercihlerimizden sapmalarının en bariz yollarından biri olan makinelerin kapatma anahtarlarını devre dışı bırakmasıdır.
Russell, 'İnsan Uyumlu Yapay Zeka ve Kontrol Problemi' adlı kitabında, kapatma sorununun "akıllı sistemleri kontrol etme sorununun merkezinde olduğunu" savunuyor.
Russell ayrıca, "Bir makineyi bizi durduracağı için kapatamazsak, gerçekten başımız belada demektir. Ve eğer bunu yapabilirsek, belki onu başka yollarla da kontrol edebiliriz" diyor.
Buna paralel olarak, Scott Newcomb'un Teksas Üniversitesi'ndeki laboratuvarı, gerçek robotlarda tercih ve öğrenme algoritmalarının işleyişi üzerine çalışıyor.
O laboratuvardaki iki kollu bir robot olan Gemini, bir sofra düzeni gösterisinde bir insanın çatalı tabağın soluna koymasını izlediğinde, ilk başta çatalın her zaman tabakların solunda olup olmadığını anlamaz.
Yeni algoritmalar, Gemini'nin birkaç gösteriden sonra modeli öğrenmesine olanak tanıyor.

İnsan davranışı rasyonel değil
Buna karşılık Russell, "ilki davranışımızın rasyonel olmaktan o kadar uzak olması ve gerçek temel tercihlerimizi yeniden yapılandırmanın çok zor olması" olmak üzere iki tür zorluk olduğuna dikkat çekiyor.
Yapay zeka sistemlerinin uzun, orta ve kısa vadeli hedeflerin hiyerarşisini, yani sahip olduğumuz tüm bu sayısız tercih ve taahhütler hakkında düşünmesi gerekecek.
Robotlar bize yardım edeceklerse (ve ciddi hatalar yapmaktan kaçınacaklarsa), bilinçsiz inançlarımızın ve ifade edilmemiş arzularımızın bulanık ağlarını aşmak zorunda kalacaklar.
İkinci zorluk ise insan tercihlerinin değişmesidir. Düşüncelerimiz hayatımız boyunca değişir.
Zira ruh halimize veya değişen koşullara göre sürekli olarak değişir. Bu nedenle bir robotun onları algılaması çok zor olabilir.
Peki ya gelecekte doğacak çok sayıda insan ne olacak?
Makineler onların tercihlerini nasıl dikkate alacak?
Ayrıca, eylemlerimiz bazen ideallerimize uygun düşmez. İnsanlar bile aynı anda çelişen değerlere sahip.
Robotlar gibi biz de tercihlerimizi belirlemeye çalışıyoruz. Mümkün olan en iyi yapay zeka gibi biz de -en azından bazılarımız- iyinin neye benzediğini anlamaya çalışıyoruz.
Bu nedenle, belki de insanlar gibi yapay zeka sistemleri de sonsuza kadar soru sorma girdabında sıkışıp kalabilir.
Ayrıca Russell'ın endişeler listesinde üçüncü bir büyük sorun daha var: kötü insanlar için tercihler.
Peki bir robotun kötü sahibinin amaçlarına hizmet etmesini engelleyen nedir?
Zenginlerin vergi yasalarında boşluklar bulması gibi, yapay zeka sistemleri de tabuları aşmanın yollarını bulma eğiliminde.
Daha karanlık bir sahnede, hepimizin içinde var olan kötülüğü sorabiliriz. Bu konuda Russell iyimser.
Ona göre programcılar, gelecekte ek algoritmalara ve daha fazla araştırmaya ihtiyaç duysalar bile zararlı seçimleri sınırlayabilirler ve aynı yaklaşım "çocuklarımızı yetiştirme şeklimiz" açısından da faydalı olabilir.
Başka bir deyişle, robotlara nasıl iyi olunacağını öğreterek kendimize de iyi olmayı öğretmenin bir yolunu bulabiliriz.

Independent Türkçe



ABD'den tepki çeken plan: 80 bin göçmeni "Amazon gibi" depolayacaklar

ABD Kongresi temmuzda çıkardığı yasayla en az 100 bin kişinin gözaltı merkezlerinde tutulabilmesi için 45 milyar dolarlık ekstra bütçe sağlamıştı (AP)
ABD Kongresi temmuzda çıkardığı yasayla en az 100 bin kişinin gözaltı merkezlerinde tutulabilmesi için 45 milyar dolarlık ekstra bütçe sağlamıştı (AP)
TT

ABD'den tepki çeken plan: 80 bin göçmeni "Amazon gibi" depolayacaklar

ABD Kongresi temmuzda çıkardığı yasayla en az 100 bin kişinin gözaltı merkezlerinde tutulabilmesi için 45 milyar dolarlık ekstra bütçe sağlamıştı (AP)
ABD Kongresi temmuzda çıkardığı yasayla en az 100 bin kişinin gözaltı merkezlerinde tutulabilmesi için 45 milyar dolarlık ekstra bütçe sağlamıştı (AP)

Donald Trump yönetimi, ABD'ye yasadışı yollarla giren göçmenlerin gözaltında tutulması için bir adım daha atıyor.

İç Güvenlik Bakanlığı, büyük sanayi depolarını gözaltı merkezlerine çevirmek için harekete geçti. 

Washington Post'un özel haberine göre yüklenici şirketlere çağrı yapılarak bu işi üstlenmeleri istenecek.

Bu planla toplamda 80 bini aşkın göçmenin elden geçirilecek depolarda tutulması planlanıyor.

Mevcut sistemde hangi tesiste boş yer varsa göçmenler oraya gönderiliyor. 

Yeni planla birlikte 5-10 bin kişi taşıyabilecek 7 dev tesis ya da 1500 kişi kapasiteli 16 merkezden birine hızlıca sevk edilecekler.

Planın savunucuları, yeni planın göçmenlerin daha rahat ve "verimli" bir şekilde sınır dışı edilebilmesini sağlayacağını savunuyor.

Diğer yandan bu plan eleştiri de topluyor. Depoların insanların yaşaması için planlanmadığını vurgulayan insan hakları savunucuları yapılacak tüm değişikliklere rağmen havalandırma, ısıtma, su tesisatı ve hijyende büyük sıkıntılar yaşanabileceğini işaret ediyor. 

National Immigration Project'ten Tania Wolf, göçmenlere insan gibi davranılmayacağını öne sürerek "Daha iyi bir ifade bulamadım ama insanlara sığır muamelesi yapıyorsunuz" dedi. 

ABD Göçmenlik ve Gümrük Muhafaza Dairesi (ICE) Direktör Vekili Todd Lyons'un nisanda düzenlenen bir sınır güvenliği konferansında Amazon depoları örneğini verdiği hatırlatıldı:

Bunu bir iş gibi görmeyi daha iyi becermeliyiz. Prime gibi ama insanlarla yapılanı.

Amerikan gazetesi taslağın nihai halini henüz almadığını ve detayların değişebileceğini bildirdi. 

Washington Post, ay başında ICE'nin 68 bini aşkın göçmeni tesislerinde tuttuğunu ve bunlardan yüzde 48'inin herhangi bir hüküm giymediğini veya suçlamayla karşı karşıya olmadığını belirtti. 

Donald Trump'ın "sınır çarı" diye tanımladığı Tom Homan'ın 2025'te 580 bine yakın kişiyi sınır dışı ettiklerini duyurduğu da anımsatıldı. 

Independent Türkçe, Washington Post, Daily Beast


Myanmar'daki iç savaşta salgın riski: Bulaşıcı hastalıklar sınır tanımaz

Myanmar'da nisanda yaşanan depremlerde, cuntanın sağlık malzemelerinin dağıtımını engellediği öne sürülmüştü (Reuters)
Myanmar'da nisanda yaşanan depremlerde, cuntanın sağlık malzemelerinin dağıtımını engellediği öne sürülmüştü (Reuters)
TT

Myanmar'daki iç savaşta salgın riski: Bulaşıcı hastalıklar sınır tanımaz

Myanmar'da nisanda yaşanan depremlerde, cuntanın sağlık malzemelerinin dağıtımını engellediği öne sürülmüştü (Reuters)
Myanmar'da nisanda yaşanan depremlerde, cuntanın sağlık malzemelerinin dağıtımını engellediği öne sürülmüştü (Reuters)

Myanmar'daki iç savaş, sıtma ve kolera gibi hastalıkların bölgeye yayılmasına neden olabilir.

New York Times'ın haberine göre, yatırımlarda silahlara öncelik veren cunta yönetimleri tarafından Myanmar sağlık sistemi yıllardır ihmal ediliyor.

Sivil hükümet döneminde hastalık kontrolünde bazı ilerlemeler kaydedilmiş olsa da 2021'de ordunun yeniden iktidarı ele geçirmesiyle bunlar tersine döndü.

UNICEF'e göre Myanmar, hiç aşılanmamış çocukların sayısının en fazla olduğu ülkeler arasında. İç savaşla boğuşan ülkedeki doktorlara göre, boğmaca ve difteri gibi önlenebilir hastalıklar artıyor.

Cunta sağlık sistemini korumadığı gibi hastane ve tıbbi tesislere de saldırıyor.

Dünya Sağlık Örgütü'nün verilerine göre Myanmar ordusu, bu yıl sağlık tesislerine en az 67 saldırı düzenledi.

Myanmar'ın Bangladeş sınırına yakın bir bölgede isyancıların elindeki 300 yataklı hastanenin bu ay bombalanması sonucu en az 34 kişi hayatını kaybetmişti.

Köylüler ve ayrılıkçı örgütler, hava saldırılarından korunmak için sıtma gibi hastalıkları taşıyan sivrisineklerin istila ettiği ormanlarda saklanıyor. Bazı doktorlar 20 defa sıtma geçiren hastaları tedavi ettiklerini söylüyor.

Ayrıca Myanmar'da 2021'deki darbenin ardından Tayland'da da sıtma vakalarının arttığı belirtiliyor.

Çatışmalar nedeniyle, Myanmar-Tayland sınırındaki Mae Sot kasabasında yer alan Mae Sot Genel Hastanesi'ne giden hasta sayısı yaklaşık yüzde 50 arttı.

Ancak hastane müdür yardımcısı Dr. Rojanasak Thongkhamcharoen, gelen Myanmarlı hastaları tedavi etmekten başka seçenekleri olmadığını belirtiyor:

Myanmar'daki sağlık durumunu önemsemezsek, çocuk felci gibi uzun süredir görülmeyen hastalıkların yeniden ortaya çıkmasıyla karşılaşabiliriz. Bulaşıcı hastalıklar sınır tanımaz.

Tayland-Myanmar sınırında çalışan epidemiyolog Dr. Voravit Suwanvanichkij de şu uyarıları paylaşıyor:

Bu kriz insanları geceleri uykusuz bırakmalı. Myanmar'ın çoğu epidemiyolojik bir kör noktaya dönüştü.

Ülkede nisanda yaşanan  7,7 ve 6,4 büyüklüğündeki iki depremde 3 binden fazla kişi hayatını kaybetmiş, halihazırda zaten yetersiz olan sağlık sistemi de iflasın eşiğine gelmişti.

Independent Türkçe, New York Times, Think Global Health


Güney Asya devi, Silikon Vadisi’nin hedefinde: 70 milyar dolarlık yatırım yapılacak

Microsoft CEO'su Satya Nadella, Başbakan Narendra Modi'yle ocak ayında Yeni Delhi'de görüşmüştü (Narendramodi.in)
Microsoft CEO'su Satya Nadella, Başbakan Narendra Modi'yle ocak ayında Yeni Delhi'de görüşmüştü (Narendramodi.in)
TT

Güney Asya devi, Silikon Vadisi’nin hedefinde: 70 milyar dolarlık yatırım yapılacak

Microsoft CEO'su Satya Nadella, Başbakan Narendra Modi'yle ocak ayında Yeni Delhi'de görüşmüştü (Narendramodi.in)
Microsoft CEO'su Satya Nadella, Başbakan Narendra Modi'yle ocak ayında Yeni Delhi'de görüşmüştü (Narendramodi.in)

Amazon, Microsoft ve Google gibi teknoloji devleri Hindistan'a büyük yatırım taahhütleri verdi.

Washington Post'un haberine göre Silikon Vadisi şirketleri, ekimden bu yana Hindistan'da toplam 67,5 milyar dolarlık yatırım yapma sözü verdi. Taahhütlerin yüzde 80'i bu ay açıklandı.

Yatırımların büyük kısmı, yapay zeka destekli sohbet botlarının işlemesini sağlayan devasa veri merkezlerinin inşası için kullanılacak.

Hindistan'daki yazılımcılar için eğitim programları ve küçük işletmeler arasında yapay zeka kullanımının yaygınlaştırılması amacıyla yatırımlar da yapılacak.

ChatGPT'nin yaratıcısı OpenAI ve rakibi Claude'un üreticisi Anthropic, bu yıl Hindistan'da ofisler açtı.

Microsoft CEO'su Satya Nadella ve Intel CEO'su Lip-Bu Tan gibi isimler de bu ay Hindistan Başbakanı Narendra Modi'yle bir araya gelip, yapay zeka ve yarı iletken çip üretimiyle ilgili konuları ele aldı.

Güney Asya ülkesi, şubatta uluslararası bir yapay zeka zirvesine ev sahipliği yapmaya da hazırlanıyor. Hindistan hükümetine göre bu, Küresel Güney'de düzenlenen ilk uluslararası zirve olacak.

Analizde, 1 milyardan fazla internet kullanıcısına sahip Hindistan'ın teknoloji devleri için "kazanılması gereken bir pazara" dönüştüğü ifade ediliyor.

Amerikan finansal hizmet şirketi Wedbush Securities'den Dan Ives, "Silikon Vadisi'nde herkes Hindistan'da büyük bir rekabetin başladığını biliyor" diyor.

Microsoft, Hindistan'da 17,5 milyar dolarlık yatırım yapacağını 9 Aralık'ta duyurmuştu. Firmanın Asya'daki en büyük yatırımı kapsamında, Hindistan'ın Haydarabad şehrinde devasa bir veri merkezi kurulması planlanıyor.

Google da büyük bir veri merkezi için 15 milyar dolarlık yatırım yapacağını ekimde açıklamıştı.

Öte yandan çevreciler, ciddi miktarda enerji ve su gerektiren veri merkezlerinin, halihazırda kaynak sıkıntısı çeken Hindistan için uzun vadede kıtlık gibi sorunlar yaratabileceğine işaret ediyor.

Ekonomistler de yapay zekanın yaygın olarak benimsenmesinin ülkedeki işgücü piyasasını altüst edebileceği uyarısında bulunuyor.

Independent Türkçe, Washington Post, New York Times