Un'investigazione del Guardian ha esposto al pubblico per la prima volta una larga parte dei documenti che costituiscono le linee guida per i moderatori del social network. E dimostrano che quando le voci a parlare sono quasi due miliardi, tracciare un confine netto tra "OK" e "non OK" è praticamente impossibile.
La questione della censura su Facebook è sempre stata molto delicata, e la recente crescita del fenomeno di mostrare in video atti violenti contro sé stessi e contro altri - certe volte anche in diretta e per mano dello stesso autore dell'atto - non fa altro che alimentare il dibattito che la circonda. L'investigazione del Guardian, che ha esposto per la prima volta larghe porzioni del "manuale operativo" dei moderatori Facebook, non lo placherà di certo - anzi, tutto il contrario; ma potrebbe aiutare a capire quanto sia difficile districarsi tra le infinite sfaccettature dell'operato umano. Si parla di temi (e contenuti) controversi di ogni tipo: pornografia, razzismo, violenza su sé stessi e sugli altri, abusi, incitamento all'odio, eventi sportivi combinati e perfino cannibalismo.
Per esempio, l'idoneità di una minaccia di morte o violenza viene valutata in base alla posizione sociale dell'interessato: se si tratta di un politico o un'altra figura pubblica viene censurata, mentre se si tratta di un insulto diretto non viene considerata credibile. Le cose cambiano se dal testo o dal contesto emergono possibili intenzioni più concrete, che si trasformano in un potenziale piano d'azione.



