Bangladeş polisi "detone" sosyal medya fenomeninden artık şarkı söylememesini istedi

Serbest bırakılmasının ardından Alom, kendisini hapishane kıyafetleriyle parmaklıklar ardında gösteren ve nasıl asılacağına dair hüzünlü bir şarkı söylediği yeni bir video paylaştı

Fotoğraf: AFP
Fotoğraf: AFP
TT

Bangladeş polisi "detone" sosyal medya fenomeninden artık şarkı söylememesini istedi

Fotoğraf: AFP
Fotoğraf: AFP

Polis, bazı klasik eserleri bozduğu yönündeki şikayetler üzerine popüler şarkıların detone yorumlarını yapmakla tanınan Bangladeşli bir şarkıcıdan şarkı söylemeyi bırakmasını istedi.
37 yaşındaki "Hero" Alom'un Facebook'ta yaklaşık 2 milyon takipçisi ve YouTube'da yaklaşık 1,5 milyon abonesi var. Alom'un seslendirdiği şarkılar arasında Nobel ödüllü Rabindranath Tagore ile Bangladeşli şair Kadı Nezrülislam'ın klasik şarkıları da var. Alom'un videolarının çoğu milyonlarca izlenmeye sahip.
27 Temmuz'da Dakka polisi Alom'u gözaltına aldı ve ona klasik şarkıları bozmayı bırakmasını söyledi.
Şarku'l Avsat'ın The Daily Star'dan akatrdığı habere göre, Dakka Metropolitan Polisi Amiri Harun Raşid'e göre Alom hakkında çok sayıda siber suçlama olduğu belirtildi.
Raşid, şarkıcının bazı videolarda polis üniforması giymesinin yanı sıra şarkıları "bozduğu" yönündeki şikayetlere dayanarak polis merkezine getirildiğini söyledi.
Haberlere göre Alom, polise bu tür eylemleri gelecekte tekrarlamayacağını söylemesinin ardından salıverildi.
Ancak Alom, polisin zihinsel işkencesine maruz kaldığını iddia etti.
AFP'ye konuşan Alom "Polis beni sabah 6'da aldı ve 8 saat boyunca orada tuttu. Bana neden Rabindra ve Nezrülislam şarkıları söylediğimi sordular" dedi.
Serbest bırakılmasının ardından Alom, kendisini hapishane kıyafetleriyle parmaklıklar ardında gösteren ve nasıl asılacağına dair hüzünlü bir şarkı söylediği yeni bir video paylaştı.
Alom, "Öyle görünüyor ki şu anda Bangladeş'te özgürce şarkı bile söyleyemiyorsunuz" dedi.
Alom'un poliste yaşadığı zorluk sosyal medyada öfkeye yol açarken, şarkıcı birkaç gazeteci ve aktivistin desteğini aldı.
Gazeteci Aditya Arafat "Şarkılarınızın ya da oyunculuğunuzun hayranı değilim. Ama ortada sesinizi kesme girişimi varsa buna karşı dururum" diye yazdı.



Uzmanlar uyardı: Oyuncaklara ChatGPT eklemek çocuklara "gerçek anlamda zarar verir"

Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
TT

Uzmanlar uyardı: Oyuncaklara ChatGPT eklemek çocuklara "gerçek anlamda zarar verir"

Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)

Çocuk refahı uzmanlarına göre oyuncak devi Mattel'in ürünlerine ChatGPT ekleme planları, "çocuklara gerçek anlamda zarar verme" riski taşıyabilir.

Barbie'nin üreticisi geçen hafta OpenAI'la işbirliği yaptığını duyurarak gelecekteki oyuncakların popüler yapay zeka sohbet botunu içereceğini ima etmişti. 

Duyuruda teknolojinin nasıl kullanılacağına dair spesifik ayrıntılar yer almasa da Mattel ortaklığın, "yapay zekayla çalışan ürünleri ve deneyimleri destekleyeceğini" ve "yapay zekanın büyüsünü yaşa uygun oyun deneyimleriyle buluşturacağını" belirtmişti.

Çocuk refahı savunucuları buna karşılık Mattel'e deneysel teknolojiyi çocuk oyuncaklarına yerleştirmemesi çağrısında bulundu.

Savunuculuk örgütü Public Citizen'ın eş başkanı Robert Weissman yaptığı açıklamada, "Çocuklar gerçeklik ve oyun arasında tam bir ayrım yapabilecek bilişsel kapasiteye sahip değil" dedi.

Oyuncaklara insan benzeri konuşmalar yapabilen, insanlarınki gibi sesler eklemek çocuklara gerçek anlamda zararlar verme riski taşıyor.

Weissman'ın bahsettiği potansiyel zararlar arasında sosyal gelişimin baltalanması ve çocukların akran ilişkileri kurma becerilerine engel olunması yer alıyor.

Weissman "Mattel, yapay zeka teknolojisini çocuk oyuncaklarına dahil etmeyeceğini derhal duyurmalı" dedi. 

Mattel, yapay zeka içeren oyuncaklar satarak çocuklarımız üzerinde pervasız bir sosyal deney yapmak için ebeveynlerin kendisine duyduğu güveni kullanmamalı.

The Independent cevap hakkı için OpenAI ve Mattel'le temasa geçti.

Mattel ve OpenAI'ın işbirliği, ChatGPT gibi üretken yapay zeka sistemlerinin, kullanıcıların ruh sağlığı üzerindeki etkisine ilişkin endişelerin arttığı bir dönemde geldi.

Sohbet botlarının yanlış bilgi yaydığı, komplo teorilerini doğruladığı ve hatta iddiaya göre kullanıcıları kendilerini öldürmeye teşvik ettiği biliniyor.

Psikiyatristler de yapay zekayla etkileşimlerin yol açtığı, sohbet psikozu adı verilen bir olguya karşı uyarıyor.

Danimarka'daki Aarhus Üniversitesi'nde psikiyatri alanında öğretim üyesi olan Soren Dinesen Ostergaard, Schizophrenia Bulletin için kaleme aldığı başyazıda "ChatGPT gibi üretken yapay zeka sohbet botlarıyla yapılan yazışmalar o kadar gerçekçi ki, kişi diğer uçta gerçek bir insan olduğu izlenimine kolayca kapılıyor" diye yazıyor.

Bana göre bu bilişsel çelişkinin, psikoz eğilimi yüksek kişilerde sanrıları körüklemesi muhtemel görünüyor.

OpenAI'ın patronu Sam Altman bu hafta yaptığı açıklamada, şirketinin hassas kullanıcıları korumak adına komplo teorileri içeren konuşmaları kesmek ya da intihar gibi konular gündeme geldiğinde insanları profesyonel hizmetlere yönlendirmek gibi yollarla, güvenlik önlemleri alma yönünde çaba gösterdiğini söylemişti.

Hard Fork podcast'ine konuşan Altman, "Önceki nesil teknoloji şirketlerinin yeterince hızlı tepki vermeme gibi hatalarına düşmek istemiyoruz" demişti.

Öte yandan ruhsal durumu yeterince kırılgan olan ve psikotik bir kırılmanın eşiğine gelen kullanıcılara nasıl bir uyarı göndereceğimizi henüz bulamadık.

Independent Türkçe