3000 moderatori non possono combattere la violenza nel mondo. Nemmeno su Facebook Live
Il rispetto degli standard della comunità è infatti affidato a centri di monitoraggio, incaricati di moderare le segnalazioni degli utenti di tutto il mondo.
Il rispetto degli standard della comunità è affidato a centri di monitoraggio, incaricati di moderare le segnalazioni degli utenti di tutto il mondo.
Un algoritmo non ci salverà. È ormai evidente che affidarsi a processi informatici programmati per l’eliminazione di atti di violenza, blandamente definiti inappropriate content, non sarà sufficiente per arginare la comparsa di omicidi, stupri o torture nei nostri feed quotidiani.
Solo un mese fa la Live di un omicidio era diventata virale e accessibile a tutta la comunità di Facebook, riportando l’attenzione sul difficile e controverso compito dei social network di contrastare la diffusione di questo tipo di contenuti — in una dichiarazione pilatesca Facebook aveva affermato che “mentre il sistema delle Live può fornire una finestra sui momenti migliori della vita delle persone, può anche renderci testimoni del peggio.”
Fino ad oggi infatti la linea di difesa di Facebook contro i media e gli utenti era rimasta immobile sulla possibilità di mettere in mostra il meglio e peggio di ciò che viene condiviso. Per un social network che si sta rapidamente avvicinando ai 2 miliardi di utenti, praticamente un quarto della popolazione mondiale, l’argomentazione non sembra più sufficiente e adatta a giustificare il succedersi di queste situazioni.
Con un post sul social network, ieri Mark Zuckerberg ha annunciato la volontà di aggiungere, durante il prossimo anno, 3000 persone al team operativo (già costituito da 4500 moderatori) che si occupa del monitoraggio delle segnalazioni.
Oggi il rispetto degli standard della comunità è infatti affidato a centri di monitoraggio, incaricati di moderare le segnalazioni degli utenti di tutto il mondo. Il recente documentario The Moderators – diretto da Ciaran Cassidy e Adrian Chen e prodotto dalla Field of Vision – ha esplorato l’attività delle persone incaricate di visionare milioni di foto, video e post alla settimana. Il documentario rivela il delicato equilibrio su cui poggia la stabilità etica di una vasta realtà come Facebook: 7500 moderatori per quasi 2 miliardi di utenti, un moderatore ogni 250 mila utenti.
“Non importa quante persone abbiamo nel team, non saremo mai in grado di controllare tutto,” secondo Mark Zuckerberg.
Il post del fondatore di Facebook sembra un intervento mirato a salvaguardare gli investimenti della compagnia, più che l’integrità morale del social network. A partire dal 2016 Facebook ha infatti investito 50 milioni nella promozione delle Live, distribuite su 140 contratti con aziende e celebrità impegnate a produrre video in streaming di alta qualità — la diffusione di contenuti inappropriati metterebbe quindi in ginocchio il lancio del servizio e la sua integrità, ancora prima di sviluppare un sistema di monetizzazione integrato.
L’obiettivo, dichiarato dall’azienda, di creare delle comunità che coinvolgano sempre di più gli aspetti sociali, politici e sanitari dei propri utenti va incontro a un parallelo aumento di guadagni e responsabilità — l’assunzione di 3000 persone (per un’azienda che fattura 1 miliardo al mese) salvaguarda solo uno di questi due aumenti, vi lasciamo intuire quale.
Segui Jacopo su Twitter.
Per ricevere tutte le notizie da The Submarine, metti Mi piace su Facebook