Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

İngiliz bir profesör, süper bilgisayarlara gerçek arzularımızla nasıl başa çıkacağını öğretirken felaketten kurtulmayı görüyor

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
TT

Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay

Bill Gates'in geçen günlerde bir yazısında değindiği, süper zeka başta olmak üzere yapay zekanın beraberinde getirebileceği tehlikeler hakkında geniş bir tartışma var.
Gates, bu tür bir zekanın insan zihninin geliştirebileceği her şeyi yapabileceğini, ancak bunu belleğinin boyutuna veya çalışma hızına dayatılan herhangi bir pratik sınır olmaksızın yapabileceğini gördü. Ve sonra, derin bir değişimle karşı karşıya kalacağız.
Ayrıca, Oxford Üniversitesi'ndeki İsveçli filozof ve bilgisayar bilimcisi Nick Bostrom, bu tür bir zekanın içerebileceği tehlikeler hakkında klasik entelektüel düşünceler sunuyor.
Profesör Bostrom, geliştiricileri tarafından ataç üretmek gibi görünüşte zararsız bir amaçla programlanan süper zeki bir robot tasavvur etti. Sonunda robot, tüm dünyayı dev bir ataç fabrikasına dönüştürüyor.
Daha da rahatsız edici bir örnek, bunun dünyanın dört bir yanındaki milyarlarca insanı etkiliyor olması.
İzlenme üresini en üst düzeye çıkarmayı hedefleyen YouTube, bu amaçla yapay zeka tabanlı içerik önerme algoritmalarından yararlanıyor.
İki yıl önce, bilgisayar bilimciler ve kullanıcılar, web sitesinin algoritmasının aşırılık yanlısı ve komplo içeriği önererek izlenme süresini artırma hedefine ulaştığını fark etmeye başladılar.
Bir araştırmacı, eski ABD Başkanı Donald Trump'ın kampanya mitinglerinden görüntüleri gördükten sonra, YouTube'un 'beyaz üstünlüğü, Holokost inkarı ve diğer rahatsız edici içerikler' hakkında rantlarla dolu videolarını gösterdiğini bildirdi.
Belki de YouTube mühendisleri insanları radikalleştirme niyetinde değildi. Sorunun önemli bir yönü, insanların genellikle yapay zeka sistemlerimize hangi hedefleri vereceklerini bilmemeleridir. Çünkü ne istediğimizi bile bilmiyoruz.
Uzun ve ilginç bir makalede Quanta Magazine, bu tür tuzaklardan kaçınmanın yollarından bahsediyor ve bazı araştırmacıların kullanışlı akıllı makineleri programlamak için tamamen yeni bir yol geliştirdiğine dikkat çekiyor.
Yöntem, dünya çapında 1.500'den fazla üniversitede ders kitabı olarak okutulan 'Artificial Intelligence: A Modern Approach' (Yapay Zeka: Modern Bir Yaklaşım) kitabının yazarı bilgisayar bilimi profesörü Stuart J. Russell'ın fikirlerine benziyor.
Russell'ın görüşüne göre, bir makinenin ödülle ilgili işlevlerini geliştirmesini istemek, dengesiz yapay zekaya yol açacaktır.
Çünkü hedefleri, alt hedefleri, istisnaları ve uyarıları ödül işlevine dahil etmek ve her birinin önemini doğru bir şekilde belirlemek, hatta hangisinin doğru olduğunu bilmek imkansız.
Zekalarının sürekli yükselişte olduğu bir zamanda, 'otonom' robotlara hedef vermek tehlikelerle dolu olacaktır.
Zira o, ödül işlevi arayışında acımasız olacak ve onu kapatmamızı engellemeye çalışacaktır.
Buna dayanarak, hedeflerine ulaşmak isteyen makineler yerine, bu yeni düşünceye göre, insan tercihlerini tatmin etmeye çalışmak onlar için daha faydalı.
Yani tek hedefleri bizim tercihlerimizin ne olduğunu daha derinlemesine araştırmak olmalıdır. Russell, 'Human Compatible: Artificial Intelligence and the Problem of Control' (İnsan Uyumlu Yapay Zeka ve Kontrol Problemi) adlı son kitabında tezini, geliştiricilerinin onlardan 'hedeflerine' değil bizim 'hedeflerimize' ulaşmalarını bekledikleri 'üç faydalı makine ilkesi' biçiminde ortaya koydu.
Bu, ünlü bilim kurgu yazarı Isaac Asimov tarafından 1942 yılında formüle edilen 'üç robot yasasını' anımsatıyor.
ABD'li yazar Asimov, 1992 yılında 72 yaşındayken vefat etti. En çok üç robot yasasını oluşturmasıyla tanınır:
1-Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3-Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Russell'ın üç robot yasası ise aşağıdakileri belirtir:
1-Makinenin yegane amacı, insan tercihlerinin optimal olarak gerçekleştirilmesidir.
2-Makine, bu tercihlerin ne olduğundan temel olarak emin olmamalıdır.
3-İnsan tercihleri için birincil bilgi kaynağı insan davranışlarıdır.
Geçen birkaç yılda Russell ve ekibi, yapay zeka sistemlerinin tercihlerimizi tanımlamaya gerek kalmadan keşfetmesi için yenilikçi yollar geliştirmeyi umarak Stanford Üniversitesi, Teksas Üniversitesi ve diğer ülkelerdeki araştırmacı gruplarıyla iş birliği yaptı.
Bu laboratuvarlar, robotlara kendilerini hiç ifade etmemiş insanların tercihlerini nasıl öğreneceklerini öğretiyor ve hatta insanın gizemini çözmeye yardımcı olacak yeni davranışlar geliştirebiliyor.

İnsan böyle anlar
Russell, yıllar önce robotların işinin video izleme süresini artırmak veya ataç yapmak gibi hedeflere ulaşmak değil, sadece hayatımızı iyileştirmeye çalışmak olması gerektiğini anladı.
Bu bağlamda, reinforcement learning (pekiştirmeli öğrenme) bir yapay zeka sisteminin deneme yanılma yoluyla öğrendiği bir makine öğrenimi alt kümesi.
Böylece yapay zeka, birkaç davranışı denedikçe bir oyundaki puanı gibi kendi ödül işlevini geliştirmeyi öğrenir ve ardından ödül işlevinden daha fazla yararlanmak için hangi davranışları pekiştireceğini çözer.
Quanta Magazine web sitesine göre, 1998 yılından beri Russell, asistanı Andrew Ng ile birlikte 'inverse reinforcement learning' (ters pekiştirmeli öğrenme) sistemi denen şeyi yaratmaya koyuldu.
'Pekiştirmeli öğrenme' sistemi, bir hedefe ulaşmak için yapılacak en iyi eylemleri belirlerken 'ters pekiştirmeli öğrenme sistemi' ise bir dizi eylem verildiğinde birincil hedefi çözer.
Russell daha da ileri gitti ve robotun ve insanın çeşitli "yardım oyunlarında insanın gerçek tercihlerini öğrenmek için birlikte çalışmasını sağlamak" anlamına gelen yeni bir 'ters işbirlikçi öğrenme' türü geliştirmek için asistanlarıyla birlikte çalışmaya başladı.
Geliştirdikleri oyunlardan biri olan 'kapatma oyunu', otonom robotların bizim gerçek tercihlerimizden sapmalarının en bariz yollarından biri olan makinelerin kapatma anahtarlarını devre dışı bırakmasıdır.
Russell, 'İnsan Uyumlu Yapay Zeka ve Kontrol Problemi' adlı kitabında, kapatma sorununun "akıllı sistemleri kontrol etme sorununun merkezinde olduğunu" savunuyor.
Russell ayrıca, "Bir makineyi bizi durduracağı için kapatamazsak, gerçekten başımız belada demektir. Ve eğer bunu yapabilirsek, belki onu başka yollarla da kontrol edebiliriz" diyor.
Buna paralel olarak, Scott Newcomb'un Teksas Üniversitesi'ndeki laboratuvarı, gerçek robotlarda tercih ve öğrenme algoritmalarının işleyişi üzerine çalışıyor.
O laboratuvardaki iki kollu bir robot olan Gemini, bir sofra düzeni gösterisinde bir insanın çatalı tabağın soluna koymasını izlediğinde, ilk başta çatalın her zaman tabakların solunda olup olmadığını anlamaz.
Yeni algoritmalar, Gemini'nin birkaç gösteriden sonra modeli öğrenmesine olanak tanıyor.

İnsan davranışı rasyonel değil
Buna karşılık Russell, "ilki davranışımızın rasyonel olmaktan o kadar uzak olması ve gerçek temel tercihlerimizi yeniden yapılandırmanın çok zor olması" olmak üzere iki tür zorluk olduğuna dikkat çekiyor.
Yapay zeka sistemlerinin uzun, orta ve kısa vadeli hedeflerin hiyerarşisini, yani sahip olduğumuz tüm bu sayısız tercih ve taahhütler hakkında düşünmesi gerekecek.
Robotlar bize yardım edeceklerse (ve ciddi hatalar yapmaktan kaçınacaklarsa), bilinçsiz inançlarımızın ve ifade edilmemiş arzularımızın bulanık ağlarını aşmak zorunda kalacaklar.
İkinci zorluk ise insan tercihlerinin değişmesidir. Düşüncelerimiz hayatımız boyunca değişir.
Zira ruh halimize veya değişen koşullara göre sürekli olarak değişir. Bu nedenle bir robotun onları algılaması çok zor olabilir.
Peki ya gelecekte doğacak çok sayıda insan ne olacak?
Makineler onların tercihlerini nasıl dikkate alacak?
Ayrıca, eylemlerimiz bazen ideallerimize uygun düşmez. İnsanlar bile aynı anda çelişen değerlere sahip.
Robotlar gibi biz de tercihlerimizi belirlemeye çalışıyoruz. Mümkün olan en iyi yapay zeka gibi biz de -en azından bazılarımız- iyinin neye benzediğini anlamaya çalışıyoruz.
Bu nedenle, belki de insanlar gibi yapay zeka sistemleri de sonsuza kadar soru sorma girdabında sıkışıp kalabilir.
Ayrıca Russell'ın endişeler listesinde üçüncü bir büyük sorun daha var: kötü insanlar için tercihler.
Peki bir robotun kötü sahibinin amaçlarına hizmet etmesini engelleyen nedir?
Zenginlerin vergi yasalarında boşluklar bulması gibi, yapay zeka sistemleri de tabuları aşmanın yollarını bulma eğiliminde.
Daha karanlık bir sahnede, hepimizin içinde var olan kötülüğü sorabiliriz. Bu konuda Russell iyimser.
Ona göre programcılar, gelecekte ek algoritmalara ve daha fazla araştırmaya ihtiyaç duysalar bile zararlı seçimleri sınırlayabilirler ve aynı yaklaşım "çocuklarımızı yetiştirme şeklimiz" açısından da faydalı olabilir.
Başka bir deyişle, robotlara nasıl iyi olunacağını öğreterek kendimize de iyi olmayı öğretmenin bir yolunu bulabiliriz.

Independent Türkçe



Musk, DOGE’dan pişman: “Bir daha uğraşmam”

Ocak ayında Musk liderliğinde kurulan DOGE, kasımda kapatılmıştı (Reuters)
Ocak ayında Musk liderliğinde kurulan DOGE, kasımda kapatılmıştı (Reuters)
TT

Musk, DOGE’dan pişman: “Bir daha uğraşmam”

Ocak ayında Musk liderliğinde kurulan DOGE, kasımda kapatılmıştı (Reuters)
Ocak ayında Musk liderliğinde kurulan DOGE, kasımda kapatılmıştı (Reuters)

Elon Musk, Hükümet Verimliliği Bakanlığı'nda (DOGE) geçirdiği süreyi değerlendirdi.

Musk, 2017-2019'ta İç Güvenlik Bakanlığı'nda basın sözcüsü yardımcısı olarak görev yapan Katie Miller'ın podcast'ine katıldı.

Teknoloji milyarderi, ABD Başkanı Donald Trump'ın Beyaz Saray Özel Kalem Müdür Yardımcısı Stephen Miller'ın eşiyle yaptığı söyleşide, DOGE'un tartışmalı federal bütçe kesintilerine dair şunları söyledi:

Biraz başarılı olduk. Bir dereceye kadar başarılı olduk. Hiç mantıklı olmayan, tamamen israfa yol açan birçok fonlamayı durdurduk.

Trump'ın seçim kampanyasına yaptığı desteklerle gündeme gelen Musk, ABD Başkanı tarafından DOGE'un başına getirilmişti.

Yönetimin ilk 5 ayında federal kurumlarda gerçekleştirdiği kesintilerle tartışma yaratan Tesla CEO'su, nisanda yaptığı açıklamada elektrikli otomobil şirketiyle ilgilenmek için DOGE'da geçirdiği süreyi azaltacağını duyurmuş, mayısta da görevden ayrılmıştı.

DOGE'un kesintileri nedeniyle binlerce federal çalışanın işine son verilmesi ABD'de tepki çekmişti. ABD'nin yanı sıra bazı Avrupa şehirlerinde de Tesla'ların kundaklandığı bildirilmişti.

Salı günü yayımlanan podcast'te Musk, bir daha DOGE gibi bir projenin başına geçmek istemediğini belirtti:

DOGE'la uğraşmak yerine, esasen şirketlerim üzerinde çalışmalıydım. Böylece ürettiğimiz arabaları kundaklamazlardı.

Space X CEO'su, DOGE'un başına geçtikten sonra katıldığı bir konferansta Nazi selamı verdiği iddiasıyla da yoğun eleştirilerin hedefi olmuştu.

Analistlere göre Tesla'nın net kârının bu yılın ilk çeyreğinde yüzde 71 oranında düşmesinde, Musk'ın DOGE’a odaklanması büyük rol oynamıştı.

Teknoloji milyarderiyle ABD Başkanı'nın arası, Trump'ın tartışmalı vergi indirimi tasarısı nedeniyle bozulmuştu. Sosyal medya üzerinden atışmaların ardından ikili daha sonra "dostluk mesajları" paylaşmıştı.

Independent Türkçe, Reuters, Axios


‘Tek bir tık bir ülkeyi yıkmaya yeter’... İsrailli bir yetkiliden ‘nadir’ uyarı

Siber korsanlığı simgeleyen bir görsel (Reuters)
Siber korsanlığı simgeleyen bir görsel (Reuters)
TT

‘Tek bir tık bir ülkeyi yıkmaya yeter’... İsrailli bir yetkiliden ‘nadir’ uyarı

Siber korsanlığı simgeleyen bir görsel (Reuters)
Siber korsanlığı simgeleyen bir görsel (Reuters)

İsrail Ulusal Siber Güvenlik Müdürlüğü Başkanı Yossi Karadi, nadir görülen bir uyarıda bulunarak, siber tehditlerin ülkeleri anında çökme noktasına getirebileceğini söyledi. Şarku’l Avsat’ın Yediot Ahronot’tan aktardığına göre Karadi, elektrik, su, trafik ışıkları ve hastane ağlarına yapılan siber saldırıların artık savaş aracı haline geldiğini ve bu saldırıların çoğunlukla saldırganın kimliğini gizlemek için vekil gruplar üzerinden gerçekleştirildiğini belirtti. Karadi dün Tel Aviv Üniversitesi’nde düzenlenen Siber Güvenlik Haftası konferansında yaptığı konuşmada, son altı ayda İsrail’in yürüttüğü savunma faaliyetlerinden bir kısmını paylaştı ve ‘ilk siber savaş’ olarak nitelendirdiği durumun endişe verici bir tablosunu çizdi.

Karadi, “Giderek savaşların dijital alanda başlayıp biteceği bir çağa doğru ilerliyoruz” dedi ve ‘dijital kuşatma’ terimini tanıttı. Karadi, bu senaryoda enerji santrallerinin duracağı, trafik ışıklarının çalışmayacağı, iletişim sistemlerinin çökeceği ve su kaynaklarının kirlenebileceğini vurgulayarak, “Bu hayali bir gelecek senaryosu değil, oldukça gerçekçi bir eğilim” ifadesini kullandı.

Karadi, dijital kuşatma kavramının sadece çekici bir ifade olmadığını, 15 yıl süren bir gelişimin sonucu olduğunu belirtti. Geçmişte devletler arasındaki siber savaşların çoğunlukla sessiz casusluk veya yalnızca askeri tesisleri hedef alan operasyonlar olduğunu söyleyen Karadi, son yıllarda durumun değiştiğini ve yeni düşmanın yalnızca sır çalmayı değil, sivil yaşamı kesintiye uğratmayı amaçladığını ifade etti.

Yediot Ahronot’a göre, siber savaşların başlangıç noktası olarak kabul edilen olay, 2010 yılında Stuxnet virüsünün ortaya çıkmasıydı. Yabancı raporlara göre virüs, İran’ın Natanz Nükleer Tesisi’ndeki santrifüjleri hedef almak için İsrail ve ABD tarafından kullanılmıştı ve yalnızca belirli endüstriyel kontrol birimlerini etkileyerek sivil bilgisayarlar veya alakasız altyapıya zarar vermekten kaçınıyordu.

Karadi, dönüm noktasının ise geçen on yılın ortalarında Doğu Avrupa’da yaşandığını belirtti. Rus hacker grubu Sandworm, teorik olarak mümkün görülmeyen bir adım atarak Ukrayna elektrik şebekesini hackledi ve yüz binlerce evi dondurucu soğukta karanlığa gömdü. Bu olaydan sonra siber operasyonlar, yalnızca askeri hedeflere yönelik silahlar olmaktan çıkarak, sivil nüfusu hem psikolojik hem fiziksel olarak etkileme aracına dönüştü. Ayrıca, 2017’de Kuzey Kore’ye atfedilen WannaCry fidye yazılımı saldırısının, siber silahların nasıl kontrolden çıkabileceğini gösterdiği ve dünya genelinde hastaneler ile acil servisleri rastgele etkileyerek felce uğrattığı ifade edildi.

Bir Amerikan siber güvenlik şirketi, Sandworm siber hack grubunun faaliyetlerini tespit etti. (Reuters)Bir Amerikan siber güvenlik şirketi, Sandworm siber hack grubunun faaliyetlerini tespit etti. (Reuters)

Tehlikeli bir artış

Karadi, İran’ın siber terör doktrinini benimsemiş olmasının tehlikeli bir örneğini paylaştı: 2020 yılında İsrail su şebekesindeki klor seviyesini değiştirmeye yönelik girişim, başarılı olsaydı kitlesel zehirlenmeye yol açabilirdi.

Karadi, o tarihten bu yana İran’ın siber saldırılarının İsrail’de sivil altyapıyı hedef aldığını, hastaneler, alarm sistemleri ve elektrik şebekesine yönelik tekrar eden girişimlerin bu kapsamda olduğunu belirtti.

Hastanelere yönelik saldırıların yeni bir boyut kazandığını vurgulayan Karadi, yakın zamanda Shamir Tıp Merkezi’ne yapılan siber saldırıyı örnek gösterdi. Saldırının arkasında, sıradan bir suç örgütü gibi görünen ‘Qilin’ adlı bir grup bulunuyordu. Karadi, bu durumun devletlerin, sorumluluğu gizlemek için vekil siber gruplar aracılığıyla saldırılar düzenlemesi trendini gösterdiğini ve bunun yalnızca İsrail’e özgü olmadığını aktardı. ABD ve Avrupa istihbarat raporları da benzer eğilimleri doğruluyor.

Çin’de de ‘Volt Typhoon’ gibi grupların, kâr amacı gütmeden ABD’nin kritik altyapısına sızmalar yaparak olası bir gelecekteki saldırıya hazırlık yaptıkları tespit edilmiş durumda.

Karadi, İran saldırılarında karma bir taktik gözlendiğini söyledi: Weizmann Enstitüsü’ne bir füze atılırken, aynı zamanda güvenlik kameralarına sızılarak çarpma anı gerçek zamanlı olarak kaydedildi ve psikolojik etkisi artırıldı. Aynı zamanda çalışanlara tehdit mesajları ve sızdırılmış kişisel bilgiler gönderildi.

Bu yöntem, Ukrayna savaşında görülen siber saldırılarla benzerlik taşıyor; Rus hackerlar, internet servis sağlayıcılarını hedef alarak bilgi akışını engelliyor ve korku yayıyordu.

Konuşmasını yapay zekâ çağının getirdiği fırsatlar ve risklerle tamamlayan Karadi, “Dijital sistemlere tamamen bağımlılık ve yapay zekâdaki hızlı gelişim, büyük fırsatlar sunuyor, ancak saldırganlara da sınırsız hareket alanı sağlıyor” uyarısında bulundu.

Yediot Ahronot gazetesi, Karadi’nin mesajını özetleyerek, “Gelecek savaşta klavye, roketten daha az öldürücü olmayacak” ifadeleriyle duyurdu.


İran'ın başkentinde aylardır ilk kez yağmur yağdı

Bugün Tahran'daki Valiasr Meydanı'nda İran bayrağı şeklinde dev bir reklam panosunun önünden geçen bir kadın (EPA)
Bugün Tahran'daki Valiasr Meydanı'nda İran bayrağı şeklinde dev bir reklam panosunun önünden geçen bir kadın (EPA)
TT

İran'ın başkentinde aylardır ilk kez yağmur yağdı

Bugün Tahran'daki Valiasr Meydanı'nda İran bayrağı şeklinde dev bir reklam panosunun önünden geçen bir kadın (EPA)
Bugün Tahran'daki Valiasr Meydanı'nda İran bayrağı şeklinde dev bir reklam panosunun önünden geçen bir kadın (EPA)

İran'ın başkentinde aylardır ilk kez bugün yağmur yağdı ve bu durum, yüzyılı aşkın süredir en kurak sonbaharını yaşayan ülke için rahatlama getirdi.

Şarku’l Avsat’ın AP’den aktardı habere göre kuraklık, Cumhurbaşkanı Mesud Pezeşkiyan'ın, başkent çevresindeki barajları dolduracak kadar şiddetli yağmur yağmazsa, İran'ın aralık ayı sonuna kadar hükümetini Tahran dışına taşıması gerekebileceği uyarısında bulunmasına yol açmıştı.

Meteorologlar bu sonbaharı ülke genelinde 50 yıldan fazla süredir yaşanan en kurak sonbahar olarak tanımladı; bu durum, 1979 İslam Devrimi'nden bile öncesine denk geliyor ve tarım için büyük miktarda suyu verimsiz bir şekilde tüketen sistemi daha da zorluyor. Ajans, su krizinin ülkede siyasi bir mesele haline geldiğini, özellikle de İsrail Başbakanı Binyamin Netanyahu'nun, iki ülke arasında geçen haziran ayında 12 gün süren bir savaş yaşanmasına rağmen, İran'a bu konuda defalarca yardım teklifinde bulunmasının ardından bu durumun daha da belirginleştiğini belirtti.

20 Mayıs 2025'te Tahran dışındaki Lar Barajı'nın uydu görüntüsü (Planet Labs - AP)20 Mayıs 2025'te Tahran dışındaki Lar Barajı'nın uydu görüntüsü (Planet Labs - AP)

Netanyahu, 2018'de yayınlanan bir tanıtım videosunda İran halkına şahsen seslenerek, "milyonlarca insanın hayatını tehdit eden ciddi su kıtlığı" sorununu ele almak üzere Farsça bir internet sitesinin açılışını duyurdu. İranlıların su ihtiyaçlarına yardımcı olmayı amaçlayan yeni bir İsrail girişimi olan "İran Halkı İçin Yaşam"ı şahsen desteklemeye hazır olduğunu belirtti. Batı Kudüs'teki ofisinde çekilen video, Netanyahu'nun bir tuz arıtma tesisinden geldiğini iddia ettiği kaptan kendine bir bardak su doldurmasıyla başlıyor. Ardından İranlıların karşı karşıya olduğu vahim su krizinden bahsediyor.

Netanyahu, 12 günlük savaşın ardından geçen ağustos ayında İranlılara mesajını yineleyerek şunları söyledi: “Liderleriniz 12 günlük savaşı bize zorla dayattılar ve ezici bir yenilgiye uğradılar. Her zaman yalan söylüyorlar.” Sözlerine şöyle devam etti: “İran'da her şey çöküyor. Bu kavurucu yazda, çocuklarınız için temiz, soğuk su bile yok. Bu, İran halkına karşı gösterilen en büyük ikiyüzlülük ve saygısızlıktır. Bu durumu hak etmiyorsunuz.”