Yapay zeka sistemleri "saçmalığa dönüşmenin eşiğinde olabilir"

Araştırmacılar "model çöküşünün" ChatGPT gibi sistemleri daha az kullanışlı kılabileceğini söylüyor

Fotoğraf: Unsplash
Fotoğraf: Unsplash
TT

Yapay zeka sistemleri "saçmalığa dönüşmenin eşiğinde olabilir"

Fotoğraf: Unsplash
Fotoğraf: Unsplash

Araştırmacılar internet yapay zekanın ürettiği içeriklerle dolmasıyla, yapay zeka sistemlerinin saçmalığa dönüşebileceğine dair uyarıda bulundu.

OpenAI'ın ChatGPT'si gibi metin üreten sistemlere duyulan heyecan son yıllarda giderek arttı. Bu heyecan, pek çok kişiyi sistemler tarafından yaratılan blog yazıları ve çeşitli içerikler yayımlamaya teşvik etti,  böylelikle yapay zekanın ürettiği içerikler, internetin giderek daha büyük bir kısmını kapladı.

Fakat bu sistemleri üreten şirketlerin çoğu, sistemleri eğitmek için internetteki metinlerden yararlanıyor. Bu, metinleri üretmek için kullanılan yapay zeka sistemlerinin aynı metinlerle eğitildiği bir döngüye yol açabilir.

Yeni bir çalışmada araştırmacılar, bunun yapay zeka araçlarını hızlıca anlamsızlığa ve saçmalığa sürükleyebileceği konusunda uyardı. Uyarıları, internetin giderek büyüyen bir kısmının kısır döngüye girerek otomatikleştiğini öne süren daha geniş "ölü internet teorisi" kaygısının bir parçası.    

Araştırmaya göre, sistemin içerik ürettiği ve ürettiği içeriklerle eğitildiği döngünün yalnızca birkaç kez yaşanması, sistemin saçmalık üretmeye başlaması için yeterli.

Örneğin araştırmacılar, ortaçağ mimarisi hakkındaki metinlerle test edilen bir sistemde, sadece 9 üretimde çıktının kendini tekrarlayan bir kır tavşanı çeşitleri listesine dönüştüğünü gözlemledi.

Yapay zekanın yine yapay zeka tarafından üretilen veri setleriyle eğitilmesi ve çıktıları kirletmesine "model çöküşü" denmişti. Araştırmacılar, yapay zeka sistemleri internette daha sık kullanıldıkça bu durumun yaygınlaşabileceği konusunda uyarıyor.

Sistemler ürettikleri verilerle eğitildikçe, verinin daha az yaygın kısımlarını dışarıda bırakmaya eğilimli olduğu için bu sorun yaşanıyor. Bu çalışmada yer almayan araştırmacı Emily Wenger, farklı köpek cinsleriyle eğitilen bir sistemi örnek vermişti: asıl veride golden retriever daha çok varsa sistem veriden onları seçerek süreç ilerledikçe diğer köpekleri dışarda bırakıyor ve sonunda çökerek yalnızca saçmalık üretmeye başlıyor.

Araştırmacılar, ChatGPT ve Google'ın Gemini'ı çalıştıran büyük dil modellerinde de aynı sonucun ortaya çıktığını gözlemledi.

Bu, yalnızca sistemler giderek işlevini yitireceği için değil, çıktılarındaki çeşitlilik giderek azalacağı için de sorun teşkil edebilir. Veri üretilip geri dönüştürüldükçe sistemler, dünyadaki farklılıkları yansıtmakta zorlanabilir ve daha küçük gruplar ve bakış açıları tamamen silinebilir.

Araştırmacılar, makalede "eğitimde internetteki büyük ölçekli verileri temizlemenin faydalarını sürdürmek isteniyorsa sorunun ciddiye alınması gerektiğini" yazıyor. Bu durum, halihazırda sistemlerini eğitmek üzere veri kazımış şirketlerin, geçmişte toplanan verilerde gerçek insan çıktısı daha fazla bulunduğu için avantajlı olduğu anlamına da gelebilir.

Bu sorun, çıktıyı filigranla işaretleyip otomatik sistemler tarafından tespit edilerek eğitim kümelerinin dışında tutulmasını sağlamak da dahil birçok farklı yolla çözülebilir. Ama filigranları silmenin kolay olması ve yapay zeka şirketlerinin filigran kullanmakta işbirliğine direnmesi gibi başka problemler de bulunuyor.

"Yapay zeka modelleri özyineleyerek üretilen verilerle eğitildiğinde çöküyor (AI models collapse when trained on recursively generated data)" isimli çalışma Nature'da yayımlandı.

Independent Türkçe



Dehşete düşüren filmin sonu iki yıl sonra neden değiştirildi?

Dehşete düşüren filmin sonu iki yıl sonra neden değiştirildi?
TT

Dehşete düşüren filmin sonu iki yıl sonra neden değiştirildi?

Dehşete düşüren filmin sonu iki yıl sonra neden değiştirildi?

Danimarka yapımı gerilim filmi Sakın Ses Çıkarma'nın (Speak No Evil) başarısı, iki yıl içinde yeniden çekilip vizyona girmesini sağlarken yeni yapımın yönetmeni James Watkins, hikayenin sonunda yaptıkları değişikliklerin gerekçesini anlattı. 

13 Eylül'de dünyayla birlikte Türkiye'de vizyona giren film hakkında GamesRadar+'a konuşan Watkins, 2008 tarihli Kan Gölü (Eden Lake) filminin sonunda izleyicilere karanlık bir son sunduğunu ve Danimarkalı yönetmen Christian Tafdrup'un da orijinal filmde benzer bir yola saptığını hatırlattı: 

Uzun süre önce yaptığım Kan Gölü, pek çok açıdan Christian'ın filmine benziyor ve bu yüzden aynısını yapmak istemedim. Seyirciye yeniden aynı şeyi dayatmanın dürüstçe olmayacağını hissettim. Hikaye, temalar ve karakterleri takip ettim.

Birleşik Krallık yurttaşı yönetmen, filmi daha net bir finalle bitirseler de bunun "mutlu son" anlamına gelemeyeceğini söyledi. 

51 yaşındaki yönetmen, Entertainment Weekly'e verdiği röportajdaysa orijinal filmdeki Danimarkalı aileyi Amerikalı yapmalarının da değişikliğe neden olduğunu anlattı.

Christian Tafdrup'un yönettiği 2022 yapımı film, Danimarkalı bir ailenin İtalya'nın Toskana bölgesine tatile gidişini ve burada Hollandalı bir aileyle yakınlaşmasını anlatıyordu. 

Aylar sonra, Hollanda'daki yeni arkadaşlarından aldıkları daveti kabul eden ailenin ziyareti hızla kabusa dönüyordu.

Yeniden çevrimde Mackenzie Davis ve Scoot McNairy, konuk edildikleri evde korkunç bir hafta sonu geçiren Amerikalı çifti canlandırıyor.

Yeniden çevrimle ilgili yorumlar da epey olumlu. Sinema yazarlarının övgü dolu incelemeleri sayesinde Sakın Ses Çıkarma, eleştiri derleme sitesi Rotten Tomatoes'da 100 üzerinden 85 puan almayı başardı.

Yeni yapımın başrolündeki James McAvoy, Paddy karakterini canlandırırken tartışmalı fenomen Andrew Tate'den esinlendiğini önceki günlerde açıklamıştı.  

Eski kick boksçu Tate, sosyal medyada yaptığı paylaşımlarla dikkat çekmişti. Tate, Aralık 2022'de Romanya'da insan kaçakçılığı, tecavüz ve organize suç çetesi soruşturması kapsamında tutuklanmıştı.

Independent Türkçe, Screen Rant, Games Radar