F­a­c­e­b­o­o­k­ ­m­o­d­e­r­a­t­ö­r­l­e­r­i­ ­o­l­a­s­ı­ ­k­ö­t­ü­y­e­ ­k­u­l­l­a­n­ı­m­ ­f­o­t­o­ğ­r­a­f­l­a­r­ı­n­d­a­ ­y­a­ş­t­a­n­ ­e­m­i­n­ ­o­l­m­a­d­ı­ğ­ı­n­d­a­ ­‘­b­i­r­ ­y­e­t­i­ş­k­i­n­i­n­ ­y­a­n­ı­n­d­a­ ­y­e­r­ ­a­l­ı­y­o­r­’­

F­a­c­e­b­o­o­k­ ­m­o­d­e­r­a­t­ö­r­l­e­r­i­ ­o­l­a­s­ı­ ­k­ö­t­ü­y­e­ ­k­u­l­l­a­n­ı­m­ ­f­o­t­o­ğ­r­a­f­l­a­r­ı­n­d­a­ ­y­a­ş­t­a­n­ ­e­m­i­n­ ­o­l­m­a­d­ı­ğ­ı­n­d­a­ ­‘­b­i­r­ ­y­e­t­i­ş­k­i­n­i­n­ ­y­a­n­ı­n­d­a­ ­y­e­r­ ­a­l­ı­y­o­r­’­

Teknoloji şirketlerinin en büyük sorumluluğu, çocuk cinsel istismarı materyali (CSAM) için platformlarındaki içeriği izlemektir ve herhangi bir bulunursa, yasal olarak bunu Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’ne (NCMEC) bildirmeleri gerekir. Birçok şirket, potansiyel olarak CSAM olarak işaretlenen içeriği inceleyen ve içeriğin NCMEC’e bildirilmesi gerekip gerekmediğini belirleyen içerik moderatörlerine sahiptir.

Bununla birlikte, Facebook’un çocuklara yönelik cinsel istismar içeriğini eksik bildirdiği anlamına gelebilecek bir politikası var. dan yeni bir rapor New York Times. Raporda, bir Facebook eğitim belgesinin, içerik moderatörlerini, CSAM olduğundan şüphelenilen bir fotoğraf veya videoda birinin yaşını bilmediklerinde “bir yetişkinin tarafında olmaya” yönlendirdiği belirtildi.

Politika, Accenture’da çalışan Facebook içerik moderatörleri için yapılmıştır ve şu bölümde tartışılmaktadır: a Kaliforniya Hukuku İncelemesi Ağustos ayından makale:

İşte şirketin politika için gerekçesi, New York Times:

Yorum için ulaşıldığında, Facebook (şu anda Meta kurumsal şemsiyesi altında) Davis’in alıntılarına işaret etti. NYT. Accenture, bir yorum talebine hemen yanıt vermedi. Accenture yorum yapmaktan kaçındı New York Times.

Güncelleme 31 Mart, 21:09 ET: Facebook işaret etti Davis’ alıntılar NYT.

Popular Articles

Latest Articles