Ecco le policy di Facebook in materia di moderazione dei contenuti multimediali

di
Il The Guardian ha pubblicato in queste ore una lunga lista di policies interne di Facebook in materia di materiale multimediale. Ecco quali sono le regole che devono seguire i moderatori del social network di Zuckerberg

La testata ha avuto modo di studiare oltre cento manuali interni riservati ai moderatori di Facebook, riuscendo in questo modo a ricostruire le linee guida del social network in materia di contenuti video e di immagini.

Stando al quotidiano l'obiettivo di Facebook è quello di creare una piattaforma dove la libertà di parola è garantita ma, allo stesso tempo, si cerca di evitare possibili minacce concrete. Il sito usa alcuni sistemi di moderazione automatica in modo da eliminare in tempi rapidi alcuni contenuti, quali pedopornografia o immagini di propaganda al terrorismo. Il resto invece è di competenza dei moderatori in carne e ossa.

Nel manuale chiamato "Credible Violence documents" il social network definisce alcuni esempi su cosa sia una vera minaccia e cosa invece vada confinato nell'ambito dello scherzo o dello sfogo dettato da semplice ira momentanea: ad esempio l'espressione "Ti ammazzo" non sarebbe indice di un vero e proprio pericolo, mentre frasi più dettagliate o macabre sono ritenute già più credibili e quindi potrebbero essere rimosse. In particolare come indice della credibilità i moderatori dovrebbero guardare a tutti quei dettagli che rendono possibile e attuale la minaccia: elementi come specificare il luogo dove la violenza potrebbe avvenire, o specificare l'orario e le modalità sono tutte cose che depongono per l'eliminazione del post.

Facebook inoltre ha una lista aggiornata frequentemente di specifici gruppi o individui che la piattaforma ritiene più vulnerabili e quindi da proteggere. Sono mal tollerati i messaggi di odio verso specifici agenti di polizia, o etnie come quella semita.

Esistono anche delle zone grige, dove i moderatori devono agire valutando attentamente la situazione di volta in volta: i video di abusi sugli animali sono vietati solo se fini a se stessi, consentiti invece se fanno parte di campagne di sensibilizzazione. Addirittura sono consentiti foto e video di persone autolesioniste: Facebook non vuole creare ulteriore disagio a chi potrebbe avere istinti suicidi.

Secondo il The Guardian i post che quotidianamente i moderatori sono chiamati a revisionare sono milioni, e spesso questo produce una condizione di forte stress nel personale che potrebbe quindi commettere degli errori.