Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

İngiliz bir profesör, süper bilgisayarlara gerçek arzularımızla nasıl başa çıkacağını öğretirken felaketten kurtulmayı görüyor

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
TT

Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay

Bill Gates'in geçen günlerde bir yazısında değindiği, süper zeka başta olmak üzere yapay zekanın beraberinde getirebileceği tehlikeler hakkında geniş bir tartışma var.
Gates, bu tür bir zekanın insan zihninin geliştirebileceği her şeyi yapabileceğini, ancak bunu belleğinin boyutuna veya çalışma hızına dayatılan herhangi bir pratik sınır olmaksızın yapabileceğini gördü. Ve sonra, derin bir değişimle karşı karşıya kalacağız.
Ayrıca, Oxford Üniversitesi'ndeki İsveçli filozof ve bilgisayar bilimcisi Nick Bostrom, bu tür bir zekanın içerebileceği tehlikeler hakkında klasik entelektüel düşünceler sunuyor.
Profesör Bostrom, geliştiricileri tarafından ataç üretmek gibi görünüşte zararsız bir amaçla programlanan süper zeki bir robot tasavvur etti. Sonunda robot, tüm dünyayı dev bir ataç fabrikasına dönüştürüyor.
Daha da rahatsız edici bir örnek, bunun dünyanın dört bir yanındaki milyarlarca insanı etkiliyor olması.
İzlenme üresini en üst düzeye çıkarmayı hedefleyen YouTube, bu amaçla yapay zeka tabanlı içerik önerme algoritmalarından yararlanıyor.
İki yıl önce, bilgisayar bilimciler ve kullanıcılar, web sitesinin algoritmasının aşırılık yanlısı ve komplo içeriği önererek izlenme süresini artırma hedefine ulaştığını fark etmeye başladılar.
Bir araştırmacı, eski ABD Başkanı Donald Trump'ın kampanya mitinglerinden görüntüleri gördükten sonra, YouTube'un 'beyaz üstünlüğü, Holokost inkarı ve diğer rahatsız edici içerikler' hakkında rantlarla dolu videolarını gösterdiğini bildirdi.
Belki de YouTube mühendisleri insanları radikalleştirme niyetinde değildi. Sorunun önemli bir yönü, insanların genellikle yapay zeka sistemlerimize hangi hedefleri vereceklerini bilmemeleridir. Çünkü ne istediğimizi bile bilmiyoruz.
Uzun ve ilginç bir makalede Quanta Magazine, bu tür tuzaklardan kaçınmanın yollarından bahsediyor ve bazı araştırmacıların kullanışlı akıllı makineleri programlamak için tamamen yeni bir yol geliştirdiğine dikkat çekiyor.
Yöntem, dünya çapında 1.500'den fazla üniversitede ders kitabı olarak okutulan 'Artificial Intelligence: A Modern Approach' (Yapay Zeka: Modern Bir Yaklaşım) kitabının yazarı bilgisayar bilimi profesörü Stuart J. Russell'ın fikirlerine benziyor.
Russell'ın görüşüne göre, bir makinenin ödülle ilgili işlevlerini geliştirmesini istemek, dengesiz yapay zekaya yol açacaktır.
Çünkü hedefleri, alt hedefleri, istisnaları ve uyarıları ödül işlevine dahil etmek ve her birinin önemini doğru bir şekilde belirlemek, hatta hangisinin doğru olduğunu bilmek imkansız.
Zekalarının sürekli yükselişte olduğu bir zamanda, 'otonom' robotlara hedef vermek tehlikelerle dolu olacaktır.
Zira o, ödül işlevi arayışında acımasız olacak ve onu kapatmamızı engellemeye çalışacaktır.
Buna dayanarak, hedeflerine ulaşmak isteyen makineler yerine, bu yeni düşünceye göre, insan tercihlerini tatmin etmeye çalışmak onlar için daha faydalı.
Yani tek hedefleri bizim tercihlerimizin ne olduğunu daha derinlemesine araştırmak olmalıdır. Russell, 'Human Compatible: Artificial Intelligence and the Problem of Control' (İnsan Uyumlu Yapay Zeka ve Kontrol Problemi) adlı son kitabında tezini, geliştiricilerinin onlardan 'hedeflerine' değil bizim 'hedeflerimize' ulaşmalarını bekledikleri 'üç faydalı makine ilkesi' biçiminde ortaya koydu.
Bu, ünlü bilim kurgu yazarı Isaac Asimov tarafından 1942 yılında formüle edilen 'üç robot yasasını' anımsatıyor.
ABD'li yazar Asimov, 1992 yılında 72 yaşındayken vefat etti. En çok üç robot yasasını oluşturmasıyla tanınır:
1-Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3-Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Russell'ın üç robot yasası ise aşağıdakileri belirtir:
1-Makinenin yegane amacı, insan tercihlerinin optimal olarak gerçekleştirilmesidir.
2-Makine, bu tercihlerin ne olduğundan temel olarak emin olmamalıdır.
3-İnsan tercihleri için birincil bilgi kaynağı insan davranışlarıdır.
Geçen birkaç yılda Russell ve ekibi, yapay zeka sistemlerinin tercihlerimizi tanımlamaya gerek kalmadan keşfetmesi için yenilikçi yollar geliştirmeyi umarak Stanford Üniversitesi, Teksas Üniversitesi ve diğer ülkelerdeki araştırmacı gruplarıyla iş birliği yaptı.
Bu laboratuvarlar, robotlara kendilerini hiç ifade etmemiş insanların tercihlerini nasıl öğreneceklerini öğretiyor ve hatta insanın gizemini çözmeye yardımcı olacak yeni davranışlar geliştirebiliyor.

İnsan böyle anlar
Russell, yıllar önce robotların işinin video izleme süresini artırmak veya ataç yapmak gibi hedeflere ulaşmak değil, sadece hayatımızı iyileştirmeye çalışmak olması gerektiğini anladı.
Bu bağlamda, reinforcement learning (pekiştirmeli öğrenme) bir yapay zeka sisteminin deneme yanılma yoluyla öğrendiği bir makine öğrenimi alt kümesi.
Böylece yapay zeka, birkaç davranışı denedikçe bir oyundaki puanı gibi kendi ödül işlevini geliştirmeyi öğrenir ve ardından ödül işlevinden daha fazla yararlanmak için hangi davranışları pekiştireceğini çözer.
Quanta Magazine web sitesine göre, 1998 yılından beri Russell, asistanı Andrew Ng ile birlikte 'inverse reinforcement learning' (ters pekiştirmeli öğrenme) sistemi denen şeyi yaratmaya koyuldu.
'Pekiştirmeli öğrenme' sistemi, bir hedefe ulaşmak için yapılacak en iyi eylemleri belirlerken 'ters pekiştirmeli öğrenme sistemi' ise bir dizi eylem verildiğinde birincil hedefi çözer.
Russell daha da ileri gitti ve robotun ve insanın çeşitli "yardım oyunlarında insanın gerçek tercihlerini öğrenmek için birlikte çalışmasını sağlamak" anlamına gelen yeni bir 'ters işbirlikçi öğrenme' türü geliştirmek için asistanlarıyla birlikte çalışmaya başladı.
Geliştirdikleri oyunlardan biri olan 'kapatma oyunu', otonom robotların bizim gerçek tercihlerimizden sapmalarının en bariz yollarından biri olan makinelerin kapatma anahtarlarını devre dışı bırakmasıdır.
Russell, 'İnsan Uyumlu Yapay Zeka ve Kontrol Problemi' adlı kitabında, kapatma sorununun "akıllı sistemleri kontrol etme sorununun merkezinde olduğunu" savunuyor.
Russell ayrıca, "Bir makineyi bizi durduracağı için kapatamazsak, gerçekten başımız belada demektir. Ve eğer bunu yapabilirsek, belki onu başka yollarla da kontrol edebiliriz" diyor.
Buna paralel olarak, Scott Newcomb'un Teksas Üniversitesi'ndeki laboratuvarı, gerçek robotlarda tercih ve öğrenme algoritmalarının işleyişi üzerine çalışıyor.
O laboratuvardaki iki kollu bir robot olan Gemini, bir sofra düzeni gösterisinde bir insanın çatalı tabağın soluna koymasını izlediğinde, ilk başta çatalın her zaman tabakların solunda olup olmadığını anlamaz.
Yeni algoritmalar, Gemini'nin birkaç gösteriden sonra modeli öğrenmesine olanak tanıyor.

İnsan davranışı rasyonel değil
Buna karşılık Russell, "ilki davranışımızın rasyonel olmaktan o kadar uzak olması ve gerçek temel tercihlerimizi yeniden yapılandırmanın çok zor olması" olmak üzere iki tür zorluk olduğuna dikkat çekiyor.
Yapay zeka sistemlerinin uzun, orta ve kısa vadeli hedeflerin hiyerarşisini, yani sahip olduğumuz tüm bu sayısız tercih ve taahhütler hakkında düşünmesi gerekecek.
Robotlar bize yardım edeceklerse (ve ciddi hatalar yapmaktan kaçınacaklarsa), bilinçsiz inançlarımızın ve ifade edilmemiş arzularımızın bulanık ağlarını aşmak zorunda kalacaklar.
İkinci zorluk ise insan tercihlerinin değişmesidir. Düşüncelerimiz hayatımız boyunca değişir.
Zira ruh halimize veya değişen koşullara göre sürekli olarak değişir. Bu nedenle bir robotun onları algılaması çok zor olabilir.
Peki ya gelecekte doğacak çok sayıda insan ne olacak?
Makineler onların tercihlerini nasıl dikkate alacak?
Ayrıca, eylemlerimiz bazen ideallerimize uygun düşmez. İnsanlar bile aynı anda çelişen değerlere sahip.
Robotlar gibi biz de tercihlerimizi belirlemeye çalışıyoruz. Mümkün olan en iyi yapay zeka gibi biz de -en azından bazılarımız- iyinin neye benzediğini anlamaya çalışıyoruz.
Bu nedenle, belki de insanlar gibi yapay zeka sistemleri de sonsuza kadar soru sorma girdabında sıkışıp kalabilir.
Ayrıca Russell'ın endişeler listesinde üçüncü bir büyük sorun daha var: kötü insanlar için tercihler.
Peki bir robotun kötü sahibinin amaçlarına hizmet etmesini engelleyen nedir?
Zenginlerin vergi yasalarında boşluklar bulması gibi, yapay zeka sistemleri de tabuları aşmanın yollarını bulma eğiliminde.
Daha karanlık bir sahnede, hepimizin içinde var olan kötülüğü sorabiliriz. Bu konuda Russell iyimser.
Ona göre programcılar, gelecekte ek algoritmalara ve daha fazla araştırmaya ihtiyaç duysalar bile zararlı seçimleri sınırlayabilirler ve aynı yaklaşım "çocuklarımızı yetiştirme şeklimiz" açısından da faydalı olabilir.
Başka bir deyişle, robotlara nasıl iyi olunacağını öğreterek kendimize de iyi olmayı öğretmenin bir yolunu bulabiliriz.

Independent Türkçe



Uygur kamplarını ifşa eden Çinli, ABD’de sığınma hakkı kazandı

Uluslararası kamuoyu, Uygurların tutulduğu gözaltı kamplarının kapatılması çağrısında bulunmuştu (AP)
Uluslararası kamuoyu, Uygurların tutulduğu gözaltı kamplarının kapatılması çağrısında bulunmuştu (AP)
TT

Uygur kamplarını ifşa eden Çinli, ABD’de sığınma hakkı kazandı

Uluslararası kamuoyu, Uygurların tutulduğu gözaltı kamplarının kapatılması çağrısında bulunmuştu (AP)
Uluslararası kamuoyu, Uygurların tutulduğu gözaltı kamplarının kapatılması çağrısında bulunmuştu (AP)

Çin'in Sincan Uygur Özerk Bölgesi'nde gizlice görüntü çeken Guan Heng'e ABD'de sığınma hakkı tanındı. 

New York şehrinde 28 Ocak'ta düzenlenen duruşmada yargıç Charles Ouslander, Guan'ın Çin'e geri gönderilmesi halinde zulüm göreceğine dair "haklı bir korkusu" olduğunu söyleyerek kendisine sığınma hakkı tanınmasına karar verdi. 

38 yaşındaki Çinli, Sincan'da Uygurların tutulduğu gözaltı merkezleriyle bölgedeki yoğun güvenlik uygulamalarının görüntülerini 2020'de çekmişti. 

Yaklaşık 20 dakikalık videoları yayımladıktan sonra tutuklanma korkusuyla ülkeyi 2021'de terk etmiş, Hong Kong'dan Ekvador'a oradan da Bahamalar'a geçip küçük bir şişme botla ABD'ye ulaşarak iltica başvurusunda bulunmuştu. 

Guan, geçen yıl ağustosta Göçmenlik ve Gümrük Muhafaza (ICE) ekipleri tarafından New York'ta yakalanıp gözaltına alınmıştı. 

Donald Trump yönetimi, Guan'ın Uganda'ya sınır dışı edileceğini duyurmuş, insan hakları örgütleri de karara tepki göstermişti. 

New York Times'ın aktardığına göre Guan henüz serbest bırakılmadı. İç Güvenlik Bakanlığı'nın mahkeme kararına itiraz etmeyi planladığı, bu süre zarfında Çin vatandaşının gözaltında tutulacağı belirtiliyor. 

Guan, videokonferans yöntemiyle katıldığı duruşmada Bahamalar'dan Florida'ya geçerken yaşamını yitirebileceği için videoyu YouTube'dan yayımlama kararı aldığını söyledi. Görüntüleri paylaşmasının ardından, Çin'de yaşayan babasının polis tarafından üç kez sorgulandığını ifade etti. 

Guan'ın avukatı Chen Chuangchuang, ABD'nin müvekkiline sığınma hakkı sağlamakta "ahlaki ve hukuki bir sorumluluğu" olduğunu vurguladı. 

Göçmenlere karşı sert uygulamalarıyla gündemden düşmeyen Trump yönetiminde iltica başvuruları da iyice zorlaştı. 

ABD merkezli kâr amacı gütmeyen Mobile Pathways'in derlediği federal verilere göre, sığınma başvurularının onaylanma oranı 2010-2024'te yüzde 28 iken, bu oran geçen yıl yüzde 10'a kadar geriledi. 

Çin, Sincan Uygur Özerk Bölgesi'nde zorla çalıştırma, işkence ve "yeniden eğitim kampı" adı altında alıkoyma suçlamalarıyla karşı karşıya.

İnsan hakları örgütleri, bölgedeki yaklaşık 1 milyon kişinin zorla toplama kamplarına ve hapishanelere yerleştirildiğini öne sürüyor. ABD de Uygurlara yönelik muameleyi "soykırım" diye niteliyor.

Pekin yönetimiyse iddiaların gerçeği yansıtmadığını savunuyor.

Independent Türkçe, Guardian, New York Times


Rusya-Ukrayna savaşının geleceğine dair üç senaryo

Analize göre Ukrayna, piyade açığını insansız hava araçlarıyla (İHA) kapatmaya çalışıyor (Reuters)
Analize göre Ukrayna, piyade açığını insansız hava araçlarıyla (İHA) kapatmaya çalışıyor (Reuters)
TT

Rusya-Ukrayna savaşının geleceğine dair üç senaryo

Analize göre Ukrayna, piyade açığını insansız hava araçlarıyla (İHA) kapatmaya çalışıyor (Reuters)
Analize göre Ukrayna, piyade açığını insansız hava araçlarıyla (İHA) kapatmaya çalışıyor (Reuters)

ABD arabuluculuğundaki ateşkes müzakerelerinden henüz sonuç çıkmazken, Rusya ve Ukrayna karşılıklı saldırıları sürdürüyor. 

Washington merkezli düşünce kuruluşu Stratejik ve Uluslararası Çalışmalar Merkezi'nin (CSIS) raporuna göre, Rusya'nın Şubat 2022'deki saldırısıyla başlayan savaşta yaklaşık 2 milyon kişi öldü, yaralandı ya da kayboldu. 

Çalışmada, Rusya'nın yaklaşık 1,2 milyon kayıp verdiği ifade ediliyor. Ukrayna içinse bu rakam 600 bin civarında. 

Rus ordusunda 275 bin ila 325 bin askerin hayatını kaybettiği, Ukrayna ordusundaysa 100 bin ila 140 bin askerin yaşamını yitirdiği aktarılıyor.

Wall Street Journal, bu yıl savaşın gidişatını değiştirebilecek üç senaryoyu inceledi.

Savaş sürecek, müzakereler devam edecek

Analize göre en muhtemel senaryo, görüşmelerin sonuçsuz kalırken savaşın 5. yılında da devam etmesi. 

Trump yönetimi, müzakereler kapsamında Donbas’ın geri kalanının Rusya’ya verilmesi halinde ateşkes sağlanabileceğini savunuyor ancak Kiev yönetimi toprak tavizine yanaşmıyor. 

Eski Ukrayna Savunma Bakanı Andriy Zahorodniyuk, “Ukrayna halkı, ABD öncülüğündeki görüşmelere büyük şüpheyle yaklaşıyor” diyor. 

Rusya'daki her askeri, endüstriyel ve siyasi gelişmenin savaşın süreceğini işaret ettiğini, Donbas’ın Moskova tarafından işgali tekrar başlatmak için kullanılabileceğini savunuyor. 

Ukrayna geri adım atacak

Yıllardır savaşan Ukrayna ordusunun gücünün nihayetinde tükenmesi de savaşın gidişatını belirleyecek olasılıklar arasında yer alıyor. 

Ukrayna ordusu, piyade açığını drone geliştirerek kapatmaya çalışsa da bu, Rusya’nın yıpratma taktikleri ve yoğun cephe saldırılarına karşı yeterli olmayabilir. 

Berlin merkezli düşünce kuruluşu Carnegie Rusya Avrasya Merkezi'nin direktörü Alexander Gabuev, şu değerlendirmeleri paylaşıyor: 

Yıpratma savaşları önce yavaş yavaş, sonra da aniden kaybedilebilir.

Askeri tarihçiler de I. Dünya Savaşı'nın sonunda Alman ordusunun, çatışmanın büyük bir bölümünde taktiksel üstünlüğüne rağmen yorgun düştüğünü hatırlatıyor.

Rusya saldırıları durduracak 

Analize göre Rus ekonomisi hem Batı yaptırımlarının hem de savaşın etkisiyle güçlük çekiyor.

Ukrayna’nın petrol rafinerilerine yönelik uzun menzilli saldırıları ve ABD’yle Avrupa’nın “gölge filoya” karşı aldığı önlemler de Kremlin’in enerji sektöründen elde ettiği gelirlere darbe vurdu. 

Rus iş insanları da savaşın ekonomiyi kötü etkilediğini, Moskova’yı parça tedariki ve petrol alımında Çin’e bağımlı hale getirdiğini söylüyor. 

Analizde, daha sıkı yaptırımlarla ekonomiye yük bindirilmesi halinde Rusya’nın savaşı uzatma kapasitesinin de zayıflayabileceği yorumu yapılıyor. 

Independent Türkçe, Wall Street Journal, New York Times


Trump, İran’da “rejim değişikliği” planlıyor

Trump, Basra Körfezi'ne "armada" gönderdiklerini söyleyerek, askeri yığınağın artırılacağı sinyalini vermişti (AFP)
Trump, Basra Körfezi'ne "armada" gönderdiklerini söyleyerek, askeri yığınağın artırılacağı sinyalini vermişti (AFP)
TT

Trump, İran’da “rejim değişikliği” planlıyor

Trump, Basra Körfezi'ne "armada" gönderdiklerini söyleyerek, askeri yığınağın artırılacağı sinyalini vermişti (AFP)
Trump, Basra Körfezi'ne "armada" gönderdiklerini söyleyerek, askeri yığınağın artırılacağı sinyalini vermişti (AFP)

ABD Başkanı Donald Trump'ın İran'da rejim değişikliği planladığı öne sürülüyor. 

Adlarının paylaşılmaması şartıyla Reuters'a konuşan ABD'li yetkililer, Washington'ın protestolardan sorumlu tuttuğu İranlı güvenlik kurumları ve komutanlara saldırı planladığını iddia ediyor. 

Bu saldırılarla protestoları kışkırtarak İran'da "rejim değişikliğinin önünü açacak koşulların oluşturulmasının" hedeflendiği savunuluyor. 

Yetkililer, İran'ın misilleme kapasitesini azaltmak için balistik füze tesislerine geniş çaplı saldırıların da masadaki seçenekler arasında yer aldığını söylüyor. Buna ek olarak uranyum zenginleştirilen nükleer tesislerin hedef alınabileceği aktarılıyor.

Diğer yandan kaynaklar, Beyaz Saray'ın askeri harekat da dahil henüz bir eylem planında karar kılmadığını belirtiyor. 

Trump, dünkü açıklamasında Tahran yönetimine nükleer anlaşma için müzakere çağrısı yapmış, herhangi bir saldırının hazirandaki askeri harekattan daha şiddetli olacağı tehdidinde bulunmuştu.

İran ve İsrail arasında Gazze savaşı nedeniyle tırmanan gerginlik haziranda sıcak çatışmaya dönüşmüştü. İsrail'in 13 Haziran'daki saldırısıyla başlayan çatışmalarda İran vakit kaybetmeden misilleme yapmıştı.

Çatışmalarda ABD'ye ait bombardıman uçakları İran'daki İsfahan, Fordo ve Natanz tesislerine 22 Haziran'da hava saldırısı düzenlemiş, operasyonda 14 "sığınak delici" GBU-57 bombası kullanılmıştı.

Kimliğinin gizli tutulmasını isteyen İranlı bir üst düzey yetkili, Tahran yönetiminin "hem çatışmaya hazırlandığını hem de diplomatik diyaloğu sürdürdüğünü" söylüyor.

Diğer yandan İsrailli bir üst düzey yetkiliyse Tahran yönetiminin sadece hava saldırılarıyla devrilemeyeceğine dikkat çekiyor: 

Rejimi devirmek istiyorsanız, asker göndermeniz gerekir.

Kaynak, İran'ın dini lideri Ali Hamaney'in öldürülmesi durumunda Tahran yönetiminin onun yerine birini geçireceğini belirtiliyor. Yalnızca dış baskı ve ülke içinde örgütlenmiş bir muhalefetin birlikte hareket ederek rejimi yıkabileceğini savunuyor.

"İran hâlâ ölümcül bir güç"

Wall Street Journal'ın analizinde, olası bir saldırıya karşı İran'ın kuvvetli misilleme yapabileceği yazılıyor. 

Devrim Muhafızları'nın elinde İsrail'e ulaşabilecek yaklaşık 2 bin adet orta menzilli balistik füze ve önemli miktarda kısa menzilli füze stoku bulunduğu belirtiliyor. 

Washington merkezli düşünce kuruluşu Demokrasileri Savunma Vakfı'nın İran programının kıdemli direktörü Behnam Ben Taleblu, "Tahran zayıf olabilir ancak füze gücü sayesinde hâlâ ölümcül bir güç" diyor. 

Trump, İran riyalinin döviz karşısında çakılmasıyla 28 Aralık'ta patlak veren eylemlerde, göstericilerin vurulması veya idam edilmesi halinde askeri müdahale tehdidinde bulunmuş, daha sonra operasyonu askıya almıştı.

İran devleti eylemlerdeki can kaybına dair ilk açıklamayı 21 Ocak'ta yapmıştı. Güvenlik güçleri ve siviller dahil 3 bin 117 kişinin hayatını kaybettiği duyurulmuştu. 

Ancak ABD merkezli İran İnsan Hakları Aktivistleri Haber Ajansı (HRANA), gösterilerde çıkan olaylarda 6 bin 373 kişinin hayatını kaybettiğini, 42 bin 486 kişinin gözaltına alındığını savunmuştu.

BBC'nin aktardığına göre eylemlerde yakalananlar, polis tarafından gözaltına alınma endişesiyle hastanelere tedavi olmaya bile gidemiyor.

Independent Türkçe, Wall Street Journal, Reuters, Times of Israel, BBC