Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

İngiliz bir profesör, süper bilgisayarlara gerçek arzularımızla nasıl başa çıkacağını öğretirken felaketten kurtulmayı görüyor

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
TT

Yapay zekanın sorunu, bizim komutlarımıza itaat etmesi

Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay
Dijital dönüşüm, çağdaş yaşamda sürekli derinleşen ve genişleyen bir özellik / Fotoğraf: Pixabay

Bill Gates'in geçen günlerde bir yazısında değindiği, süper zeka başta olmak üzere yapay zekanın beraberinde getirebileceği tehlikeler hakkında geniş bir tartışma var.
Gates, bu tür bir zekanın insan zihninin geliştirebileceği her şeyi yapabileceğini, ancak bunu belleğinin boyutuna veya çalışma hızına dayatılan herhangi bir pratik sınır olmaksızın yapabileceğini gördü. Ve sonra, derin bir değişimle karşı karşıya kalacağız.
Ayrıca, Oxford Üniversitesi'ndeki İsveçli filozof ve bilgisayar bilimcisi Nick Bostrom, bu tür bir zekanın içerebileceği tehlikeler hakkında klasik entelektüel düşünceler sunuyor.
Profesör Bostrom, geliştiricileri tarafından ataç üretmek gibi görünüşte zararsız bir amaçla programlanan süper zeki bir robot tasavvur etti. Sonunda robot, tüm dünyayı dev bir ataç fabrikasına dönüştürüyor.
Daha da rahatsız edici bir örnek, bunun dünyanın dört bir yanındaki milyarlarca insanı etkiliyor olması.
İzlenme üresini en üst düzeye çıkarmayı hedefleyen YouTube, bu amaçla yapay zeka tabanlı içerik önerme algoritmalarından yararlanıyor.
İki yıl önce, bilgisayar bilimciler ve kullanıcılar, web sitesinin algoritmasının aşırılık yanlısı ve komplo içeriği önererek izlenme süresini artırma hedefine ulaştığını fark etmeye başladılar.
Bir araştırmacı, eski ABD Başkanı Donald Trump'ın kampanya mitinglerinden görüntüleri gördükten sonra, YouTube'un 'beyaz üstünlüğü, Holokost inkarı ve diğer rahatsız edici içerikler' hakkında rantlarla dolu videolarını gösterdiğini bildirdi.
Belki de YouTube mühendisleri insanları radikalleştirme niyetinde değildi. Sorunun önemli bir yönü, insanların genellikle yapay zeka sistemlerimize hangi hedefleri vereceklerini bilmemeleridir. Çünkü ne istediğimizi bile bilmiyoruz.
Uzun ve ilginç bir makalede Quanta Magazine, bu tür tuzaklardan kaçınmanın yollarından bahsediyor ve bazı araştırmacıların kullanışlı akıllı makineleri programlamak için tamamen yeni bir yol geliştirdiğine dikkat çekiyor.
Yöntem, dünya çapında 1.500'den fazla üniversitede ders kitabı olarak okutulan 'Artificial Intelligence: A Modern Approach' (Yapay Zeka: Modern Bir Yaklaşım) kitabının yazarı bilgisayar bilimi profesörü Stuart J. Russell'ın fikirlerine benziyor.
Russell'ın görüşüne göre, bir makinenin ödülle ilgili işlevlerini geliştirmesini istemek, dengesiz yapay zekaya yol açacaktır.
Çünkü hedefleri, alt hedefleri, istisnaları ve uyarıları ödül işlevine dahil etmek ve her birinin önemini doğru bir şekilde belirlemek, hatta hangisinin doğru olduğunu bilmek imkansız.
Zekalarının sürekli yükselişte olduğu bir zamanda, 'otonom' robotlara hedef vermek tehlikelerle dolu olacaktır.
Zira o, ödül işlevi arayışında acımasız olacak ve onu kapatmamızı engellemeye çalışacaktır.
Buna dayanarak, hedeflerine ulaşmak isteyen makineler yerine, bu yeni düşünceye göre, insan tercihlerini tatmin etmeye çalışmak onlar için daha faydalı.
Yani tek hedefleri bizim tercihlerimizin ne olduğunu daha derinlemesine araştırmak olmalıdır. Russell, 'Human Compatible: Artificial Intelligence and the Problem of Control' (İnsan Uyumlu Yapay Zeka ve Kontrol Problemi) adlı son kitabında tezini, geliştiricilerinin onlardan 'hedeflerine' değil bizim 'hedeflerimize' ulaşmalarını bekledikleri 'üç faydalı makine ilkesi' biçiminde ortaya koydu.
Bu, ünlü bilim kurgu yazarı Isaac Asimov tarafından 1942 yılında formüle edilen 'üç robot yasasını' anımsatıyor.
ABD'li yazar Asimov, 1992 yılında 72 yaşındayken vefat etti. En çok üç robot yasasını oluşturmasıyla tanınır:
1-Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3-Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
Russell'ın üç robot yasası ise aşağıdakileri belirtir:
1-Makinenin yegane amacı, insan tercihlerinin optimal olarak gerçekleştirilmesidir.
2-Makine, bu tercihlerin ne olduğundan temel olarak emin olmamalıdır.
3-İnsan tercihleri için birincil bilgi kaynağı insan davranışlarıdır.
Geçen birkaç yılda Russell ve ekibi, yapay zeka sistemlerinin tercihlerimizi tanımlamaya gerek kalmadan keşfetmesi için yenilikçi yollar geliştirmeyi umarak Stanford Üniversitesi, Teksas Üniversitesi ve diğer ülkelerdeki araştırmacı gruplarıyla iş birliği yaptı.
Bu laboratuvarlar, robotlara kendilerini hiç ifade etmemiş insanların tercihlerini nasıl öğreneceklerini öğretiyor ve hatta insanın gizemini çözmeye yardımcı olacak yeni davranışlar geliştirebiliyor.

İnsan böyle anlar
Russell, yıllar önce robotların işinin video izleme süresini artırmak veya ataç yapmak gibi hedeflere ulaşmak değil, sadece hayatımızı iyileştirmeye çalışmak olması gerektiğini anladı.
Bu bağlamda, reinforcement learning (pekiştirmeli öğrenme) bir yapay zeka sisteminin deneme yanılma yoluyla öğrendiği bir makine öğrenimi alt kümesi.
Böylece yapay zeka, birkaç davranışı denedikçe bir oyundaki puanı gibi kendi ödül işlevini geliştirmeyi öğrenir ve ardından ödül işlevinden daha fazla yararlanmak için hangi davranışları pekiştireceğini çözer.
Quanta Magazine web sitesine göre, 1998 yılından beri Russell, asistanı Andrew Ng ile birlikte 'inverse reinforcement learning' (ters pekiştirmeli öğrenme) sistemi denen şeyi yaratmaya koyuldu.
'Pekiştirmeli öğrenme' sistemi, bir hedefe ulaşmak için yapılacak en iyi eylemleri belirlerken 'ters pekiştirmeli öğrenme sistemi' ise bir dizi eylem verildiğinde birincil hedefi çözer.
Russell daha da ileri gitti ve robotun ve insanın çeşitli "yardım oyunlarında insanın gerçek tercihlerini öğrenmek için birlikte çalışmasını sağlamak" anlamına gelen yeni bir 'ters işbirlikçi öğrenme' türü geliştirmek için asistanlarıyla birlikte çalışmaya başladı.
Geliştirdikleri oyunlardan biri olan 'kapatma oyunu', otonom robotların bizim gerçek tercihlerimizden sapmalarının en bariz yollarından biri olan makinelerin kapatma anahtarlarını devre dışı bırakmasıdır.
Russell, 'İnsan Uyumlu Yapay Zeka ve Kontrol Problemi' adlı kitabında, kapatma sorununun "akıllı sistemleri kontrol etme sorununun merkezinde olduğunu" savunuyor.
Russell ayrıca, "Bir makineyi bizi durduracağı için kapatamazsak, gerçekten başımız belada demektir. Ve eğer bunu yapabilirsek, belki onu başka yollarla da kontrol edebiliriz" diyor.
Buna paralel olarak, Scott Newcomb'un Teksas Üniversitesi'ndeki laboratuvarı, gerçek robotlarda tercih ve öğrenme algoritmalarının işleyişi üzerine çalışıyor.
O laboratuvardaki iki kollu bir robot olan Gemini, bir sofra düzeni gösterisinde bir insanın çatalı tabağın soluna koymasını izlediğinde, ilk başta çatalın her zaman tabakların solunda olup olmadığını anlamaz.
Yeni algoritmalar, Gemini'nin birkaç gösteriden sonra modeli öğrenmesine olanak tanıyor.

İnsan davranışı rasyonel değil
Buna karşılık Russell, "ilki davranışımızın rasyonel olmaktan o kadar uzak olması ve gerçek temel tercihlerimizi yeniden yapılandırmanın çok zor olması" olmak üzere iki tür zorluk olduğuna dikkat çekiyor.
Yapay zeka sistemlerinin uzun, orta ve kısa vadeli hedeflerin hiyerarşisini, yani sahip olduğumuz tüm bu sayısız tercih ve taahhütler hakkında düşünmesi gerekecek.
Robotlar bize yardım edeceklerse (ve ciddi hatalar yapmaktan kaçınacaklarsa), bilinçsiz inançlarımızın ve ifade edilmemiş arzularımızın bulanık ağlarını aşmak zorunda kalacaklar.
İkinci zorluk ise insan tercihlerinin değişmesidir. Düşüncelerimiz hayatımız boyunca değişir.
Zira ruh halimize veya değişen koşullara göre sürekli olarak değişir. Bu nedenle bir robotun onları algılaması çok zor olabilir.
Peki ya gelecekte doğacak çok sayıda insan ne olacak?
Makineler onların tercihlerini nasıl dikkate alacak?
Ayrıca, eylemlerimiz bazen ideallerimize uygun düşmez. İnsanlar bile aynı anda çelişen değerlere sahip.
Robotlar gibi biz de tercihlerimizi belirlemeye çalışıyoruz. Mümkün olan en iyi yapay zeka gibi biz de -en azından bazılarımız- iyinin neye benzediğini anlamaya çalışıyoruz.
Bu nedenle, belki de insanlar gibi yapay zeka sistemleri de sonsuza kadar soru sorma girdabında sıkışıp kalabilir.
Ayrıca Russell'ın endişeler listesinde üçüncü bir büyük sorun daha var: kötü insanlar için tercihler.
Peki bir robotun kötü sahibinin amaçlarına hizmet etmesini engelleyen nedir?
Zenginlerin vergi yasalarında boşluklar bulması gibi, yapay zeka sistemleri de tabuları aşmanın yollarını bulma eğiliminde.
Daha karanlık bir sahnede, hepimizin içinde var olan kötülüğü sorabiliriz. Bu konuda Russell iyimser.
Ona göre programcılar, gelecekte ek algoritmalara ve daha fazla araştırmaya ihtiyaç duysalar bile zararlı seçimleri sınırlayabilirler ve aynı yaklaşım "çocuklarımızı yetiştirme şeklimiz" açısından da faydalı olabilir.
Başka bir deyişle, robotlara nasıl iyi olunacağını öğreterek kendimize de iyi olmayı öğretmenin bir yolunu bulabiliriz.

Independent Türkçe



Eski çalışanından Google ifşası: "Gazze savaşında İsrail ordusuna yardım edildi"

SEC'e yapılan şikayetlerin hepsi için soruşturma başlatılmıyor (Reuters)
SEC'e yapılan şikayetlerin hepsi için soruşturma başlatılmıyor (Reuters)
TT

Eski çalışanından Google ifşası: "Gazze savaşında İsrail ordusuna yardım edildi"

SEC'e yapılan şikayetlerin hepsi için soruşturma başlatılmıyor (Reuters)
SEC'e yapılan şikayetlerin hepsi için soruşturma başlatılmıyor (Reuters)

Google'ın kendi etik ilkelerini ihlal ederek İsrail ordusu için çalışan bir şirkete yardımda bulunduğu ifşa oldu.

Washington Post, eski bir Google çalışanının ABD Menkul Kıymetler ve Borsa Komisyonu'na (SEC) yaptığı şikayeti haberleştirdi. 

Temmuz 2024'te İsrail Savunma Kuvvetleri'nin (IDF) sağladığı e-posta adresini kullanan bir müşterinin Google'ın bulut bilişim biriminden destek talep ettiği aktarıldı. 

İsrail ordusuyla iş yapan CloudEx için çalıştığı anlaşılan bu kişinin, havadan çekilen görüntüler kullanılarak drone, zırhlı araç ve askerlerin teşhisinde Google'ın Gemini hizmetinin daha isabetli sonuçlar vermesini istediği belirtildi.  

Yanıt veren Google ekibinin iç testler yaptığı ve önerilerde bulunduğu ortaya kondu. 

CloudEx çalışanının sonrasında sorunun çözüldüğünü aktardığı ifade edildi. 

Google'ın o dönemki etik ilkelerine göre, yapay zeka teknolojisinin silahlar veya "uluslararası normları ihlal eden" gözetim uygulamaları için kullanılamayacağına dikkat çekildi. 

CloudEx aracılığıyla bu iki ilkeyi de çiğneyen Google'ın, yatırımcıları ve düzenleyici kurumları kandırdığı iddia edildi. 

Adı ve görevi açıklanmayan ifşacı, Amerikan gazetesine yaptığı açıklamada şu ifadeleri kullandı:

Google'daki pek çok projem, yapay zeka etiğine dair iç değerlendirme sürecinden geçti. Bu süreç çok sağlamdır ve çalışanlara düzenli olarak şirketin yapay zeka prensiplerinin ne kadar önemli olduğu hatırlatılır. Ama mesele İsrail ve Gazze olunca tam tersi geçerli oldu. SEC'e başvuruda bulundum çünkü şirketin bu çifte standarttan sorumlu tutulması gerektiğini hissettim.

SEC'e yapılan şikayette, İsrail'in 71 bini aşkın Filistinliyi öldürdüğü Gazze savaşında Gemini'dan istifade ettiği öne sürüldü. 

Google geçmişte İsrail hükümeti için silahlar ya da istihbarata dair "çok hassas" çalışmalar sergilemediklerini savunuyordu. 

Teknoloji devinin bir sözcüsü, son iddialar üzerine Washington Post'a konuşarak suçlamaları reddetti:

Bir genel kullanım sorusunu yanıtladık. Standart yardım masası bilgisini her müşteriye veririz. Bunu aşan bir teknik destek sağlamadık. Bu soruyu, yapay zeka ürünlerine birkaç yüz dolardan fazla harcamayan bir hesap yöneltti ki bu şartlarda yapay zekanın herhangi bir şekilde kayda değer kullanımı imkansız.

Google belgeleri, "bulut video zekası" hizmetinin nesne takibinin ilk bin dakika boyunca ücretsiz olduğunu, sonrasındaysa dakika başına 15 sent para aldığını bildiriyor.

Şirket, yapay zekanın silah ve gözetim için kullanılmasına karşı çıkan prensiplerini, çalışanlarının tüm protestolarına rağmen Şubat 2025'te rafa kaldırmıştı. 

Aralık ayında Pentagon, çalışanlarının Gemini'ı kullanmaya başladığını duyurmuştu. 

SEC, IDF ve CloudEx, Amerikan gazetesinin yorum taleplerine yanıt vermedi. 

Independent Türkçe, Washington Post, Jerusalem Post


Kremlin, bu hafta Ukrayna ve ABD ile görüşmelerin yapılacağını doğruladı

Kremlin sözcüsü Dmitry Peskov (Reuters)
Kremlin sözcüsü Dmitry Peskov (Reuters)
TT

Kremlin, bu hafta Ukrayna ve ABD ile görüşmelerin yapılacağını doğruladı

Kremlin sözcüsü Dmitry Peskov (Reuters)
Kremlin sözcüsü Dmitry Peskov (Reuters)

Rusya, bugün yaptığı açıklamada, dört yıldır süren savaşı sona erdirmek amacıyla pazar günü yapılması planlanan Ukrayna ve ABD ile Abu Dabi'deki görüşmelerin, üç tarafın programlarının koordinasyonu gerekliliği gerekçesiyle çarşamba gününe ertelendiğini doğruladı.

Kremlin sözcüsü Dmitry Peskov gazetecilere, "Görüşmeler gerçekten de geçen pazar günü yapılacaktı, ancak üç tarafın programlarının daha fazla koordinasyonu gerekiyordu" dedi.

Şunları da ekledi: “İkinci tur görüşmeler gerçekten de çarşamba ve perşembe günleri Abu Dabi'de yapılacak. Bunu teyit edebiliriz.”

Ukrayna Cumhurbaşkanı Volodymir Zelenskiy pazar günü, üçlü görüşmelerin çarşamba ve perşembe günleri BAE başkentinde yapılacağını duyurmuştu.

Birleşik Arap Emirlikleri'nde 23 ve 24 Ocak tarihlerinde yapılan bu görüşmelerin ilk turu diplomatik bir atılım sağlayamadı.

Bu ikinci tur görüşmeler, Moskova'nın Ukrayna'ya karşı büyük çaplı saldırısının dördüncü yıldönümünden iki haftadan kısa bir süre önce gerçekleşiyor.

Görüşmelerin, şu ana kadar herhangi bir ilerleme kaydedilememesiyle birlikte, hassas bir konu olan toprak meselesine odaklanması bekleniyor.

Washington, on binlerce insanın ölümüne, milyonlarca insanın yerinden edilmesine ve Ukrayna'nın doğu ve güney bölgelerinin büyük bir kısmının harap olmasına neden olan iki komşu ülke arasındaki savaşa son verilmesi için baskı yapıyor.


İran: Pezeşkiyan nükleer müzakerelerin başlatılması talimatı verdi

Yetkililerin ‘casus yuvası’ olarak adlandırdığı Tahran'daki ABD Büyükelçiliği’nin dış duvarlarında Özgürlük Heykeli'nin meşale tutan kolunun kırıldığını gösteren duvar resminin önünden geçen bir adam (AFP)
Yetkililerin ‘casus yuvası’ olarak adlandırdığı Tahran'daki ABD Büyükelçiliği’nin dış duvarlarında Özgürlük Heykeli'nin meşale tutan kolunun kırıldığını gösteren duvar resminin önünden geçen bir adam (AFP)
TT

İran: Pezeşkiyan nükleer müzakerelerin başlatılması talimatı verdi

Yetkililerin ‘casus yuvası’ olarak adlandırdığı Tahran'daki ABD Büyükelçiliği’nin dış duvarlarında Özgürlük Heykeli'nin meşale tutan kolunun kırıldığını gösteren duvar resminin önünden geçen bir adam (AFP)
Yetkililerin ‘casus yuvası’ olarak adlandırdığı Tahran'daki ABD Büyükelçiliği’nin dış duvarlarında Özgürlük Heykeli'nin meşale tutan kolunun kırıldığını gösteren duvar resminin önünden geçen bir adam (AFP)

İran Devrim Muhafızları Ordusu’na (DMO) bağlı Fars Haber Ajansı, İran Cumhurbaşkanı Mesud Pezeşkiyan’ın nükleer müzakerelerin başlatılması yönünde talimat verdiğini bildirdi. Bu adım, yalnızca nükleer dosyayla sınırlı bir çerçevede ABD ile görüşmelere girilmesi ihtimalinin resmi düzeyde ele alındığına işaret ediyor.

Ajans, Tahran ile Washington arasında bu kapsamda müzakerelerin başlatılması konusunda bir mutabakata varılmasının mümkün olabileceğini aktardı.

Aynı bağlamda Tesnim Haber Ajansı, bilgili bir kaynağa dayandırdığı haberinde, İran ile ABD arasında önümüzdeki günlerde üst düzey yetkililerin katılımıyla müzakerelerin başlayabileceği ihtimalini doğruladı.

Kaynak, görüşmenin yer ve zamanının henüz netleşmediğini, ancak temasların İran Dışişleri Bakanı Abbas Arakçi ile ABD Başkanı’nın Ortadoğu Özel Temsilcisi Steve Witkoff düzeyinde yapılmasının beklendiğini ifade etti.

İran Dışişleri Bakanlığı Sözcüsü İsmail Bekayi ise günün erken saatlerinde yaptığı açıklamada, Tahran’ın ABD ile yaşanan gerilimleri ele almak üzere farklı diplomatik yolların ayrıntılarını değerlendirdiğini söyledi. Bekayi, önümüzdeki günlerde somut sonuçlar elde edilmesini umduklarını dile getirdi.

Bekayi, Pezeşkiyan’ın yürüttüğü temasların ‘devlet başkanları düzeyinde ve Dışişleri Bakanlığı kanalıyla en üst seviyede’ gerçekleştiğini belirterek, yapılan ziyaretlerin ‘İran diplomasisinin ulusal çıkarları koruma çabalarının bir parçası’ olduğunu vurguladı.

ABD Başkanı Donald Trump ise dün yaptığı açıklamada, İran’la bir anlaşmaya varmayı umduğunu söyledi. Trump’ın bu açıklaması, İran Dini Lideri Ali Hamaney’in, İslam Cumhuriyeti’ne yönelik herhangi bir saldırının bölgesel bir savaşı tetikleyebileceği yönündeki uyarısının ardından geldi.

Hamaney’in uyarılarını küçümseyen Trump, Florida eyaletinde bulunan Mar-a-Lago’daki malikanesinden gazetecilere yaptığı değerlendirmede, “Elbette bunu söyleyecek” dedi. Trump, “Bir anlaşmaya varmayı umuyoruz. Eğer bu gerçekleşmezse, o zaman haklı olup olmadığını görürüz” ifadelerini kullandı.

Axios internet sitesi, Trump yönetiminin İran’a farklı kanallar aracılığıyla bir anlaşma müzakere etmek üzere görüşmeye açık olduğunu ilettiğini aktardı. Konuya yakın kaynaklar, Türkiye, Mısır ve Katar’ın, gerilimin tırmanmasını önlemeye yönelik diplomatik çabalar kapsamında, önümüzdeki günlerde Ankara’da Steve Witkoff ile üst düzey İranlı yetkililer arasında olası bir toplantı düzenlenmesi için temaslarını sürdürdüğünü bildirdi.

Beyaz Saray yetkilileri ise Başkan Donald Trump’ın İran’a yönelik bir saldırı konusunda henüz nihai bir karar almadığını ve diplomatik seçeneğe açık olmaya devam ettiğini vurguladı. Yetkililer, Trump’ın müzakere söyleminin ‘bir manevra olmadığının’ altını çizdi.

Tahran, AB büyükelçilerini çağırdı

Bu kapsamda İran, Avrupa Birliği’nin (AB) DMO’yu ‘terör örgütü’ olarak sınıflandırmasını protesto etmek amacıyla, ülkede görev yapan AB üyesi tüm devletlerin büyükelçilerini Dışişleri Bakanlığı’na çağırdığını açıkladı. Şarku’l Avsat’ın AP’den aktardığına göre, Tahran bu adımı AB’nin kararına resmi bir tepki olarak attı.

İran, AB’ye yönelik söylemini de sertleştirdi. İran Meclis Başkanı Muhammed Bakır Kalibaf, dün yaptığı açıklamada, AB ülkelerinin ordularını ‘terörist gruplar’ olarak nitelendirdi. Kalibaf’ın bu çıkışı, AB’nin DMO’yu terör örgütleri listesine alma kararına karşılık olarak geldi ve Avrupa’dan sert tepkilerle karşılandı.

AB dışişleri bakanları, DMO’yu tüm unsurlarıyla terör örgütleri listesine dahil etmişti. Karar, İran’daki üst düzey yetkililerden sert ve tepkili açıklamaların gelmesine yol açtı. Avrupa cephesinden doğrudan yanıt ise Almanya Dışişleri Bakanı Johann Wadephul’dan geldi. Wadephul, İran’ın Avrupa ordularını ‘terörist’ olarak nitelemesini reddederek, bu açıklamayı “temelsiz ve propaganda amaçlı bir iddia” olarak değerlendirdi.

İran Dışişleri Bakanlığı Sözcüsü İsmail Bekayi ise Çin ve Rusya ile gerçekleştirilen ortak askeri tatbikatlara ilişkin olarak, bu konudaki liderlik kararlarında herhangi bir sorun ya da değişiklik bulunmadığını ifade etti.