Kullanıcılar, yapay zekâ modellerini eğitmek amacıyla bilgilerini ifşa ettiği iddiasıyla LinkedIn'e dava açtı

LinkedIn logosu (Reuters)
LinkedIn logosu (Reuters)
TT

Kullanıcılar, yapay zekâ modellerini eğitmek amacıyla bilgilerini ifşa ettiği iddiasıyla LinkedIn'e dava açtı

LinkedIn logosu (Reuters)
LinkedIn logosu (Reuters)

LinkedIn'in Premium hizmetinin kullanıcıları, iş ve meslek odaklı sosyal medya platformunun, üretken yapay zekâ modellerini eğitmek için özel mesajlarını izinleri olmadan üçüncü taraflara ifşa ettiğini söyleyerek, Microsoft'un sahip olduğu platforma karşı dava açtı.

Milyonlarca LinkedIn Premium kullanıcısı adına açılan toplu dava, platformun geçtiğimiz ağustos ayında kullanıcıların kişisel verilerini paylaşmayı tercih etmelerine veya tercih etmemelerine olanak tanıyan bir gizlilik ayarını sessizce kullanıma sunduğunu iddia ediyor.

Kullanıcılar, LinkedIn'in daha sonra 18 Eylül'de gizlilik politikasını gizlice güncelleyerek verilerin yapay zekâ modellerini eğitmek için kullanılabileceğini söylediğini ve bir SSS (Sıkça Sorulan Sorular) bağlantısında iptalin ‘zaten gerçekleşmiş olan eğitim süreçlerini etkilemediğini’ söylediğini belirtti.

Dava, LinkedIn'in örtbas etme girişiminin, kullanıcı gizliliğini ihlal ettiğinin tamamen farkında olduğu anlamına geldiğini ve kişisel verileri yalnızca platformunu desteklemek ve geliştirmek için kullanma sözünün, kamu incelemesini ve yasal sonuçları en aza indirmek için olduğunu söylüyor.

Dava, platformun mesajlaşma hizmeti aracılığıyla mesaj gönderen veya alan ve özel bilgileri 18 Eylül'den önce yapay zekâ modellerini eğitmek için üçüncü taraflara ifşa edilen LinkedIn Premium kullanıcıları adına San Jose, California'daki federal mahkemede açıldı.

Dava, sözleşmenin ihlali ve Kaliforniya'nın Haksız Rekabet Yasası'nın ihlali için belirtilmemiş tazminatlar ve federal Veri Saklama Yasası’nın ihlali için kişi başına bin dolar talep ediyor.

LinkedIn tarafından yapılan açıklamada, “Bunlar yanlış ve asılsız iddialardır” denildi.

Davacıların avukatları şu anda başka bir yorumda bulunmadı.



ABD polisi, yüz tanıma teknolojisini "kestirme yola" dönüştürdü

Yüz tanıma sistemleri, yapay zeka alanındaki tartışmalı teknolojilerden (Reuters)
Yüz tanıma sistemleri, yapay zeka alanındaki tartışmalı teknolojilerden (Reuters)
TT

ABD polisi, yüz tanıma teknolojisini "kestirme yola" dönüştürdü

Yüz tanıma sistemleri, yapay zeka alanındaki tartışmalı teknolojilerden (Reuters)
Yüz tanıma sistemleri, yapay zeka alanındaki tartışmalı teknolojilerden (Reuters)

ABD'de polis, yapay zeka destekli yüz tanıma teknolojisini kullanırken diğer delilleri incelemeden şüphelileri gözaltına alıyor. 

Washington Post (WP), polislerin başka kanıtları göz önünde bulundurmadan veya detaylı inceleme yapmadan, sadece yapay zeka araçlarını kullanarak hareket ettiğini, bu nedenle vatandaşları haksız yere gözaltına aldığını yazıyor.

Polislerin, güvenliği kanıtlanmamış yüz tanıma teknolojilerini "şüphelileri bulup yakalamak için kestirme bir yola dönüştürdüğü" belirtiliyor. 

Haberde, çok az polis teşkilatının bu teknolojiyi kullandığına dair kayıt tuttuğuna dikkat çekiliyor. WP, 23 polis teşkilatının ayrıntılı kayıtlarını inceledi. 

12 eyalette 15 teşkilatın, şüphelileri gerekli deliller olmadan yüz tanıma teknolojisini kullanarak yakaladığı aktarılıyor. Şimdiye dek bu durum nedeniyle en az 8 kişinin haksız yere gözaltına alındığı ifade ediliyor. 

Polislerin, yapay zeka destekli yüz tanıma teknolojisinde "yüzde 100" eşleşme yakaladıktan sonra, parmak izlerini karşılaştırma ya da DNA kontrolü gibi sağlama yöntemlerine başvurmadan harekete geçtiği belirtiliyor. 

Sözkonusu 8 vakadan 6'sında polislerin, şüphelilerin mazeretlerini detaylıca incelemediği ifade ediliyor. 8 vakadan ikisindeyse ekipler, teorileriyle çelişen kanıtları göz ardı etti.

Bunlara ek olarak tanıkların ifadelerinin gerekli titizlikle alınmadığı, şüphelilerin fiziksel özelliklerine dikkat edilmediği veya olay yerinden önemli kanıtların toplanmadığı yazılıyor. 

Amerikan polisi, 6 Ocak 2021'de Kongre Binası'na yapılan saldırı da dahil pek çok zor vakayı çözmekte yüz tanıma sistemini kullanmıştı. 

WP, bu teknolojinin net fotoğraflar kullanılarak yapılan laboratuar testlerinde neredeyse mükemmel bir performans sergilediğine fakat gerçek dünyada bununla ilgili yeterli testlerin yapılmadığına işaret ediyor.

New York Üniversitesi Hukuk Fakültesi'nden Katie Kinsey, polislerin daha düşük kaliteli görüntüler kullandığını, memurların olası eşleşmeler arasından şüpheli adayları belirlediğini söylüyor. Kinsey, bu nedenle yazılımın ne sıklıkla yanlış sonuç verdiğini bilmenin zor olduğunu ifade ediyor.

Independent Türkçe, Washington Post, Los Angeles Times