Ali bin Sıddık el-Hakami
TT

Nesnellik ve psikolojik etkiler arasında yapay zeka

Yapay zeka, hizmetleri ülkeler, şirketler ve akademik kurumlar tarafından satın alınan bir üründen, birçok kişinin iş, eğitim, eğlence vb. için kullandığı "popüler" bir ürüne dönüşmesinin ardından, son zamanlarda dünyanın dikkat ve ilgisini üzerine çekti. Anlık ve potansiyel yararları ve tehlikeleri hakkında da büyük bir tartışma dönüyor. Tartışmaların taraflarından biri, yapay zeka konusunda tamamen muhafazakar ve onu nükleer silahların icadından bu yana insanlık için en büyük tehdit olarak tasvir ediyor. Diğer taraf insanlığa olan faydalarını abartıyor ve onu daha fazla ilerleme ve refaha taşıyacak yeni bir fetih olarak görüyor.

Yapay zekanın faydaları çok tartışmalı olmasa da, bundan doğabilecek tehlikeler konusunda temel görüş ayrılıkları var. Son zamanlarda yapay zekanın en büyük meraklılarından ikisi, Elon Musk ve Sam Altman yeni sürümler çıkarmaya devam etmeden önce biraz bekleme kararı aldı. Musk, toplum için büyük tehlikeler oluşturdukları için güçlü yapay zeka sistemlerini eğitmeyi bırakmayı talep etti. İnsani değerlerle uyumlu hale getirilmesi gerektiğini vurguladı. Yüksek derecede güvenilirlik elde etmek amacıyla, sohbet uygulamalarındaki liberal taraflılık olarak adlandırdığı olguyla başa çıkmak için yeni bir paradigma başlatma planını duyurdu. Devletlerin uygulamaları kontrol edecek mevzuatları uygulamaya sokarak müdahale etmeleri çağrısında bulundu.

Öte yandan Altman, şirketinin şu anda ChatGPT teknolojisinin gelişmiş bir sürümünü eğitmeye çalışmadığını vurguladı. Altman’ın bu kararı, yaklaşık bin teknik lider, araştırmacı ve ilgili kişi tarafından imzalanan ve insanlığa yönelik potansiyel tehlikeler nedeniyle daha güçlü sistemlerin geliştirilmesine geçici olarak ara verilmesi çağrısında bulunan mektuptan etkilenmiş görünüyor.  Mektupta yapay zeka laboratuvarlarının, geliştiricileri dahil hiç kimsenin anlayamadığı ve kontrol edemediği yazılımlar geliştirmekte kontrolsüz bir yarış içerisine girdikleri vurgulandı. Ayrıca, hızlı bir şekilde ara verilmezse, hükümetlerin müdahale etmesi ve bunu dayatması gerektiği uyarısı yapıldı. Yapay zekanın vaftiz babası Geoffrey Hinton, tehlikeleri hakkında özgürce ve bağımsız bir şekilde konuşabilmek için Google'daki işinden ayrılmaya karar verdi. Kötü insanların yapay zekayı kötü işler için kullanmasını engellemenin zor olduğunu vurguladı.

Bu yılın Mart ayında, iki Google çalışanı yanlış ve tehlikeli cümleler ürettiği için, yapay zeka tabanlı bir ürünün lansmanını durdurmaya çalıştı.  Daha önce de Microsoft'un etik yönetiminden sorumlu çalışanlar şirketlerinin ürettiği bir ürün için aynı uyarıyı yapmışlardı. Bununla birlikte, iki şirket de hummalı yarışlarına devam ettiler ve modern yapay zeka ürünlerinin kontrolünde öne çıkmak için ürünlerini piyasaya sürdüler.

Ülkeler düzeyinde, Çin hükümeti yakın zamanda uyulması gereken sıkı kontroller açıkladı. İtalya ChatGPT teknolojisini geçici olarak yasaklayan ilk ülke oldu. Amerika Birleşik Devletleri'nde, büyük yapay zeka şirketlerinin CEO'ları, askeri yetkililerin, güvenlik görevlilerinin, ekonomistlerin ve diğerlerinin katıldığı üst düzey bir toplantıda, yapay zekanın tehlikelerini tartışmak için ABD Başkan Yardımcısı ile bir araya geldi.

"Riskleri Algılama Psikolojisi" bu tartışmayı anlamaya yardımcı olan önemli açıklamalar sunuyor. Zira kendisi çeşitli teknolojilerin risklerine ve faydalarına ilişkin değerlendirmelerimizle ilgili faktörlerin incelenmesiyle ilgileniyor. En önemli bulgularından biri de insanların yarar ve zararlara ilişkin farkındalığının her zaman nesnel temellere, kanıtlara ve bilimsel verilere dayanmadığı, aksine, çeşitli psikolojik, sosyal, çevresel ve politik faktörlerden etkilenebileceğidir. Bu faktörlerin etkisi genel halkla sınırlı değil, uzmanları, akademisyenleri, profesyonelleri ve politika yapıcıları da içeriyor. Bu faktörler arasında:

- İlk olarak tehlikenin doğası yer alıyor. Yapay zekadan kaynaklanan tehlikelere ilişkin özellikle teknolojinin kontrolünü kaybetme olasılığına odaklanan zihinsel imaj, korkuların pekiştirilmesine katkıda bulunuyor. İnsanlar kontrol edemedikleri ve yönetemedikleri şeyleri yüksek risk olarak görme eğilimindedirler. Bu korku, yapay zeka teknolojisinin yeniliği ve detaylarının bilinmemesi ile pekişiyor, çünkü insan, bir tehlikeyi tanıyorsa veya aşinaysa, tehlikeyi daha iyi kontrol edebileceğini hisseder.

- Kişisel deneyimler, teknolojinin riskleri ve faydalarına ilişkin algımızı etkileyebilir. Bir kişinin yapay zeka uygulamalarını kullanması sonucu ortaya çıkan, kişisel veya dini inançlarıyla çelişebilecek veya içinde yaşadığı toplumun standartlarına, örf ve adetlerine aykırı olabilecek bazı bilgiler, onu bilinçsizce tehlikelerini abartmaya ve faydalarını en aza indirgemeye sevk eder.

- Bir diğer faktör, yapay zeka alanında çalışanların kurumsal ve ideolojik bağlılıklarıdır. Yapay zeka alanında çalışan birinin yararları ve tehlikeleri hakkındaki yargılarında tamamen objektif olmasını bekleyemeyiz. Ayrıca özel çıkarları olan baskı grupları ile yapay zeka teknolojilerine karşı çıkan, tehlikelerini abartarak, kendisini potansiyel olarak insanlığın ölümüne yol açacak şekilde tasvir ederek tam aksi yönde baskı yapan bazı bilim ve akademi çevreleri de var.

- İnsanları tehlikeler, ciddiyet dereceleri ve teknolojiyi kontrol etme olasılıkları hakkında bilgilendirmeye çalışan düzenleme ve yasama organlarına ve teknoloji şirketlerine halkın güveni de faktörlerden biri. Bu kurumlara güven derecesi yüksek ise insanların tehlike algısı bu kurumların beklentileriyle uyumlu olacaktır. Güven yokluğunda ise, sunulan bilgiler istenen etkiyi yaratmayacaktır.

- Medyanın konuyu ele alma biçimi, fayda ve risk algılarının şekillenmesinde önemli roller oynar. Bazen tehlikeler düşük derecelidir, ancak medyada bunlardan sık sık söz edilmesi, insanların zihninde bunların abartılmasına ve çok yakınmış gibi görünmesine neden olur. Buna "riskin toplumsal olarak abartılması" denir. Medyanın nadir hastalıkları ele alma yönteminde bu görülebilir. Hastalara ve hastalığın ciddiyetine dair görüntülerin bazen dramatik bir şekilde yayınlanması, onları insanların zihninde erişilebilir kılıyor. Bu da oranları gerçekte çok küçük olsa bile insanların hastalıkların sık yaşandığını hayal etmelerini kolaylaştırıyor.

- Duygusal faktörler, farklı seçimlerin risklerine ve faydalarına yönelik algımızı etkiler. Belirli bir seçeneğe yönelik tutumumuz olumsuz olduğunda, yararlarını en aza indirme ve tehlikelerini abartma eğiliminde oluruz, bu aksi durumda da geçerli. Aynı biçimde pozitif bilgilere (pazarlama kampanyaları gibi) maruz kalmamız, tercihlerimizi ve bundan kaynaklanabilecek riskler ve faydalar hakkındaki değerlendirmelerimizi etkiler. Yapay zekanın fayda ve risklerinin algılanmasına etki eden faktörlerin politika yapıcılar ve karar vericiler tarafından anlaşılması daha iyi bir bilgiye ulaşmakta, önyargılı görüşlere bağlı kalmadan kanaatleri güncellemekte büyük önem taşıyor. Herhangi bir politika veya karar, anlık ve beklenen fayda ve risklerin doğru bir değerlendirmesine dayanmalı. Dolayısıyla önleyici tedbirler almayı veya riskleri en aza indirmeyi, dengeli bir bilimsel bakış açısına dayalı eleştirel bir analiz yapmadan sunulanları ele almaktan kaçınmayı temel almalı.

İnsanlığın yapay zekanın gerçek etkilerini öğrenmek için kat etmesi gereken daha çok yol var. Süregelen tartışma, sübjektif yönlerden etkilenmeden bilimsel sonuçlara ulaşmak için ilgili tüm tarafları iş birliği yapmaya teşvik etmeli. Abartmadan veya küçümsemeden potansiyel tehlikeler hakkında yerel ve küresel topluluklarla iletişim kurulmalı. Yapay zekanın çeşitli yönleri ve hayatın çeşitli alanlarına etkileri hakkında sunulan bilgilere ve bunu düzenlemek için alınan önlemlere olan güveni artırmak için şeffaf bir şekilde çalışılmalı. Modern teknolojilerin etkin gözetim ve hesap verebilirlik yoluyla, mümkün olan en az hasarla insanlık üzerinde olumlu bir etki yaratmasının sağlanmasında insan faktörü vazgeçilmez bir unsur olmaya devam edecek.

Stratejik öneme sahip yönlerden biri de ülkelerin yapay zeka teknolojilerine egemenlik statüsü vermesi. Bu bağlamda ülkeler, yapay zekanın olası meydan okumalarından ve tehlikelerinden kaçınmak için kendi modellerini tasarlamalılar. Yapay zekanın egemen olmasını gerektiren diğer nedenlerse, bilhassa bu teknolojilere sahip olan ülkelerin diğer ülkeleri kontrol etme, bilgi ve deneyimleri kendi çıkarlarına hizmet edecek şekilde uyarlama çabaları, bu teknolojiler sayesinde diğer toplumların değerlerini ve kültürlerini yok saymaları ve onlar hakkında güvenlik ve istikrarlarını olumsuz etkileyebilecek yanlış bilgiler vermeleridir.