Clubhouse'da sızıntı: 1.3 milyon kişinin verileri hacker forum sayfasında paylaşıldı

Club House uygulama logosu (AP)
Club House uygulama logosu (AP)
TT

Clubhouse'da sızıntı: 1.3 milyon kişinin verileri hacker forum sayfasında paylaşıldı

Club House uygulama logosu (AP)
Club House uygulama logosu (AP)

Sesli sohbet uygulaması Clubhouse’ta 1.3 milyon kullanıcının kişisel verileri sızdırıldı. Verilerin kimlik hırsızlığı ve dolandırıcılık gibi yollarla kullanılabileceği belirtiliyor.
Clubhouse'dan gelen açıklamada herhangi bir siber saldırının söz konusu olmadığı, verilerin herkese açık başlıklardan oluştuğu öne sürüldü.
Sızdırılan veriler arasında;  kullanıcı adı ve numarası, isim, profil fotoğrafı, Instagram ve Twitter adresi, takip edilen kişi ve takipçi sayısı, hesabın oluşturulma tarihi gibi detaylar yer alıyor.
CyberNews'a göre, kullanıcıların kişisel verileri, bir hacker forum sayfasında paylaşıldı. Sızan verilerin, hacker'ların kullanıcıları kimlik hırsızlığı ve dolandırıcılık yöntemleriyle hedef almasına neden olabileceği belirtildi.

Independent Türkçe, CyberNews



Uzmanlar uyardı: Oyuncaklara ChatGPT eklemek çocuklara "gerçek anlamda zarar verir"

Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
TT

Uzmanlar uyardı: Oyuncaklara ChatGPT eklemek çocuklara "gerçek anlamda zarar verir"

Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)
Koleksiyoner Bettina Dorfmann'ın Almanya'nın Duesseldorf kentindeki "Barbie Kliniği"nde 25 Temmuz 2023'te çekilmiş Mattel yapımı bir Barbie (AFP)

Çocuk refahı uzmanlarına göre oyuncak devi Mattel'in ürünlerine ChatGPT ekleme planları, "çocuklara gerçek anlamda zarar verme" riski taşıyabilir.

Barbie'nin üreticisi geçen hafta OpenAI'la işbirliği yaptığını duyurarak gelecekteki oyuncakların popüler yapay zeka sohbet botunu içereceğini ima etmişti. 

Duyuruda teknolojinin nasıl kullanılacağına dair spesifik ayrıntılar yer almasa da Mattel ortaklığın, "yapay zekayla çalışan ürünleri ve deneyimleri destekleyeceğini" ve "yapay zekanın büyüsünü yaşa uygun oyun deneyimleriyle buluşturacağını" belirtmişti.

Çocuk refahı savunucuları buna karşılık Mattel'e deneysel teknolojiyi çocuk oyuncaklarına yerleştirmemesi çağrısında bulundu.

Savunuculuk örgütü Public Citizen'ın eş başkanı Robert Weissman yaptığı açıklamada, "Çocuklar gerçeklik ve oyun arasında tam bir ayrım yapabilecek bilişsel kapasiteye sahip değil" dedi.

Oyuncaklara insan benzeri konuşmalar yapabilen, insanlarınki gibi sesler eklemek çocuklara gerçek anlamda zararlar verme riski taşıyor.

Weissman'ın bahsettiği potansiyel zararlar arasında sosyal gelişimin baltalanması ve çocukların akran ilişkileri kurma becerilerine engel olunması yer alıyor.

Weissman "Mattel, yapay zeka teknolojisini çocuk oyuncaklarına dahil etmeyeceğini derhal duyurmalı" dedi. 

Mattel, yapay zeka içeren oyuncaklar satarak çocuklarımız üzerinde pervasız bir sosyal deney yapmak için ebeveynlerin kendisine duyduğu güveni kullanmamalı.

The Independent cevap hakkı için OpenAI ve Mattel'le temasa geçti.

Mattel ve OpenAI'ın işbirliği, ChatGPT gibi üretken yapay zeka sistemlerinin, kullanıcıların ruh sağlığı üzerindeki etkisine ilişkin endişelerin arttığı bir dönemde geldi.

Sohbet botlarının yanlış bilgi yaydığı, komplo teorilerini doğruladığı ve hatta iddiaya göre kullanıcıları kendilerini öldürmeye teşvik ettiği biliniyor.

Psikiyatristler de yapay zekayla etkileşimlerin yol açtığı, sohbet psikozu adı verilen bir olguya karşı uyarıyor.

Danimarka'daki Aarhus Üniversitesi'nde psikiyatri alanında öğretim üyesi olan Soren Dinesen Ostergaard, Schizophrenia Bulletin için kaleme aldığı başyazıda "ChatGPT gibi üretken yapay zeka sohbet botlarıyla yapılan yazışmalar o kadar gerçekçi ki, kişi diğer uçta gerçek bir insan olduğu izlenimine kolayca kapılıyor" diye yazıyor.

Bana göre bu bilişsel çelişkinin, psikoz eğilimi yüksek kişilerde sanrıları körüklemesi muhtemel görünüyor.

OpenAI'ın patronu Sam Altman bu hafta yaptığı açıklamada, şirketinin hassas kullanıcıları korumak adına komplo teorileri içeren konuşmaları kesmek ya da intihar gibi konular gündeme geldiğinde insanları profesyonel hizmetlere yönlendirmek gibi yollarla, güvenlik önlemleri alma yönünde çaba gösterdiğini söylemişti.

Hard Fork podcast'ine konuşan Altman, "Önceki nesil teknoloji şirketlerinin yeterince hızlı tepki vermeme gibi hatalarına düşmek istemiyoruz" demişti.

Öte yandan ruhsal durumu yeterince kırılgan olan ve psikotik bir kırılmanın eşiğine gelen kullanıcılara nasıl bir uyarı göndereceğimizi henüz bulamadık.

Independent Türkçe