Yazarlar Birliği resmen talep etti: Hollywood senaryolarını ChatGPT yazabilir

Birçok öğrenci de ödevlerini yaparken gizlice ChatGPT'yi kullanıyor (Reuters)
Birçok öğrenci de ödevlerini yaparken gizlice ChatGPT'yi kullanıyor (Reuters)
TT

Yazarlar Birliği resmen talep etti: Hollywood senaryolarını ChatGPT yazabilir

Birçok öğrenci de ödevlerini yaparken gizlice ChatGPT'yi kullanıyor (Reuters)
Birçok öğrenci de ödevlerini yaparken gizlice ChatGPT'yi kullanıyor (Reuters)

Amerikan Yazarlar Birliği (WGA) sendikası, Hollywood senaryolarının yapay zekayla yazılmasına izin verilmesini istedi.
ABD'deki televizyon ve sinema yazarlarını temsil eden sendika, senaryo yazımında ChatGPT gibi yapay zeka destekli programların kullanılmasına imkan sağlanması için başvuru yaptı.
Buna göre yazarların yapay zekanın ürettiği metinlerden yola çıkarak ya da bu metinleri düzenleyerek senaryolar yazabilmesi isteniyor. Ayrıca tamamlanmış eserin tamamen yazara ait olması da talep ediliyor.
WGA, yapay zeka aracılığıyla hazırlanan çalışmaların “edebi eser” ya da “kaynak metin” olarak değerlendirilmeyeceğini, bu yüzden programın da yazar olarak görülmemesi gerektiğini belirtti.
Başvuruda, yapay zekanın daha çok bir metin yazma aracı şeklinde ele alınması, böylelikle senaristlerin telif hakkı ve benzeri konularda teknoloji firmalarıyla sorun yaşamayacağının temin edilmesi de istendi.
Sendika söz konusu taleplerini, yeni anlaşma imzalamak için görüşmelerini sürdürdüğü Sinema ve Televizyon Yapımcıları Birliği'ne (AMPTP) iletti.
ABD'deki 350 televizyon kanalını ve film yapım şirketini temsil eden bir ticaret birliği olan AMPTP, başvuruya dair henüz açıklama yapmadı.
Yapay zeka destekli sohbet botu ChatGPT'nin son dönemde popülerliğinin artmasıyla, yazarların işini kaybedebileceği korkusu da gündeme gelmişti.
ABD'li OpenAI firmasının geliştirdiği ChatGPT'nin ilk sürümü geçen yıl yayımlanmıştı. Şirket, kısa süre önce sohbet botunun yeni dil modeli GPT'4'ü de duyurmuştu.
Sohbet botu akademide de endişe yaratmıştı.
Birleşik Krallık'taki Plymouth Marjon Üniversitesi'nden bir grup profesör, ChatGPT gibi yapay zeka araçlarının akademik sahtecilik için kullanılmasını konu alan deneysel bir makale yayımlamıştı.
Fakat hakem onayından geçerek akademik eğitim dergisi Education and Teaching International'da yayımlanan deneysel makalenin de baştan aşağı ChatGPT tarafından yazıldığı ortaya çıkmıştı.
Independent Türkçe, Gizmodo, Variety



Uzmanlar uyardı: Oyuncaklara ChatGPT eklemek çocuklara "gerçek anlamda zarar verir"

Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
TT

Uzmanlar uyardı: Oyuncaklara ChatGPT eklemek çocuklara "gerçek anlamda zarar verir"

Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)

Çocuk refahı uzmanlarına göre oyuncak devi Mattel'in ürünlerine ChatGPT ekleme planları, "çocuklara gerçek anlamda zarar verme" riski taşıyabilir.

Barbie'nin üreticisi geçen hafta OpenAI'la işbirliği yaptığını duyurarak gelecekteki oyuncakların popüler yapay zeka sohbet botunu içereceğini ima etmişti. 

Duyuruda teknolojinin nasıl kullanılacağına dair spesifik ayrıntılar yer almasa da Mattel ortaklığın, "yapay zekayla çalışan ürünleri ve deneyimleri destekleyeceğini" ve "yapay zekanın büyüsünü yaşa uygun oyun deneyimleriyle buluşturacağını" belirtmişti.

Çocuk refahı savunucuları buna karşılık Mattel'e deneysel teknolojiyi çocuk oyuncaklarına yerleştirmemesi çağrısında bulundu.

Savunuculuk örgütü Public Citizen'ın eş başkanı Robert Weissman yaptığı açıklamada, "Çocuklar gerçeklik ve oyun arasında tam bir ayrım yapabilecek bilişsel kapasiteye sahip değil" dedi.

Oyuncaklara insan benzeri konuşmalar yapabilen, insanlarınki gibi sesler eklemek çocuklara gerçek anlamda zararlar verme riski taşıyor.

Weissman'ın bahsettiği potansiyel zararlar arasında sosyal gelişimin baltalanması ve çocukların akran ilişkileri kurma becerilerine engel olunması yer alıyor.

Weissman "Mattel, yapay zeka teknolojisini çocuk oyuncaklarına dahil etmeyeceğini derhal duyurmalı" dedi. 

Mattel, yapay zeka içeren oyuncaklar satarak çocuklarımız üzerinde pervasız bir sosyal deney yapmak için ebeveynlerin kendisine duyduğu güveni kullanmamalı.

The Independent cevap hakkı için OpenAI ve Mattel'le temasa geçti.

Mattel ve OpenAI'ın işbirliği, ChatGPT gibi üretken yapay zeka sistemlerinin, kullanıcıların ruh sağlığı üzerindeki etkisine ilişkin endişelerin arttığı bir dönemde geldi.

Sohbet botlarının yanlış bilgi yaydığı, komplo teorilerini doğruladığı ve hatta iddiaya göre kullanıcıları kendilerini öldürmeye teşvik ettiği biliniyor.

Psikiyatristler de yapay zekayla etkileşimlerin yol açtığı, sohbet psikozu adı verilen bir olguya karşı uyarıyor.

Danimarka'daki Aarhus Üniversitesi'nde psikiyatri alanında öğretim üyesi olan Soren Dinesen Ostergaard, Schizophrenia Bulletin için kaleme aldığı başyazıda "ChatGPT gibi üretken yapay zeka sohbet botlarıyla yapılan yazışmalar o kadar gerçekçi ki, kişi diğer uçta gerçek bir insan olduğu izlenimine kolayca kapılıyor" diye yazıyor.

Bana göre bu bilişsel çelişkinin, psikoz eğilimi yüksek kişilerde sanrıları körüklemesi muhtemel görünüyor.

OpenAI'ın patronu Sam Altman bu hafta yaptığı açıklamada, şirketinin hassas kullanıcıları korumak adına komplo teorileri içeren konuşmaları kesmek ya da intihar gibi konular gündeme geldiğinde insanları profesyonel hizmetlere yönlendirmek gibi yollarla, güvenlik önlemleri alma yönünde çaba gösterdiğini söylemişti.

Hard Fork podcast'ine konuşan Altman, "Önceki nesil teknoloji şirketlerinin yeterince hızlı tepki vermeme gibi hatalarına düşmek istemiyoruz" demişti.

Öte yandan ruhsal durumu yeterince kırılgan olan ve psikotik bir kırılmanın eşiğine gelen kullanıcılara nasıl bir uyarı göndereceğimizi henüz bulamadık.

Independent Türkçe