Ban e commenti su Facebook: quali sono le regole da rispettare?

In costante evoluzione, regolamenti e policy di comportamento sono da sempre tra gli argomenti più spinosi del mondo Facebook.

Ban e commenti su Facebook: quali sono le regole da rispettare?
Articolo a cura di

Cosa è giusto fare o non fare su Facebook? Quali commenti sono tollerati e quali invece possono far scattare sanzioni, segnalazioni e ban? Domande di difficile risposta per una community sempre più grande e variegata, calderone enorme di opinioni, sensibilità, modi di fare e di pensare diversi. Nel corso degli anni i vertici della grande azienda di Zuckerberg hanno provato in tutti i modi a regolamentare la situazione, creando delle linee guida e dei sistemi per arginare i comportamenti scorretti sul social più grande della storia di internet. Tra infinite zone d'ombra e problemi di moderazione che crescono di pari passo con l'aumento del numero degli utenti, abbiamo provato a fare un po' di chiarezza su quelle che, secondo Facebook, sono le regole da rispettare per non essere "allontanati" dalla community.

Segnalazioni e moderatori

Canalizzare in maniera ordinata il flusso di argomenti, post e pubblicazioni su Facebook è diventata impresa quasi impossibile per i vertici dell'azienda. Ogni giorno, tra i miliardi di contenuti pubblicati, è davvero impossibile scegliere con totale esattezza quelli da eliminare o quelli da preservare. Il portale dispone di alcuni sistemi ben precisi per fare le sue valutazioni. Uno, il più semplice, è nelle mani degli utenti, che possono segnalare i contenuti che non ritengono conformi alle regole, dannosi, violenti e non adatti alla diffusione pubblica. Il sistema, di per sé virtuoso e "democratico", si basa però principalmente sull'arbitrarietà di giudizio di ognuno: spesso e volentieri i motivi delle segnalazioni sono indipendenti dal tipo di contenuto pubblicato, ma direttamente correlati ad altri fattori. Per questo una nutrita schiera di moderatori si occupa di gestire le segnalazioni e scegliere quali contenuti mantenere, quali eliminare e, in casi estremi, quali utenti allontanare in modo definitivo. Una recente ricerca del The Guardian ha però svelato quanto questo procedimento sia ad oggi diventato insostenibile e fallace: con oltre 2 miliardi di utenti iscritti i moderatori finiscono per non avere il tempo necessario per gestire le segnalazioni. Spesso hanno poco più di 10 secondi per valutare la natura di un commento e decidere quale provvedimento prendere. Da qui la creazione di una serie sconfinata di manuali e linee guida tramite cui i moderatori provano a svolgere il loro lavoro.

No all'odio

Alcune di queste linee guida sono accessibili agli utenti e contenute in due sezioni interne distinte ma collegate nel sito. La prima è quella che riassume i termini e le condizioni d'uso di Facebook, mentre la seconda e di più fresca creazione è quella che indica gli standard della comunità per un utilizzo pacifico del portale e delle sue funzioni. In sostanza, stando a quanto affermato nelle condizioni d'uso, Facebook tende a rimuovere i contenuti inappropriati o a limitarne la portata e l'accesso. In linea di massima vengono rimossi tutti i post o i messaggi che incitano all'odio o attaccano direttamente persone e gruppi in base a questioni di razza, etnia, nazionalità, religione, orientamento sessuale, sesso e salute. Gran parte della gestione di queste situazioni si basa sulle segnalazioni degli altri utenti. Viene invece ammessa la discussione delle idee e la diffusione di messaggi che incitano all'odio solo se pubblicati con lo scopo di sensibilizzare le persone contro queste pratiche. Allo stesso tempo, seppure in questo caso le zone d'ombra siano più che presenti, sono ammessi contenuti satirici o umoristici, purché le persone si prendano piena e personale responsabilità delle cose che dicono e delle pagine che utilizzano per lanciare i loro messaggi.

Sicurezza prima di tutto

Sono undici le categorie che Facebook ha individuato sulla sicurezza e i comportamenti. Undici fattori che i vertici tengono in considerazione per decidere quali messaggi preservare, quali utenti allontanare dal sito e quali profili eliminare. Le minacce dirette sono il primo fattore che potrebbe far scattare un ban definitivo dal sito: i moderatori valutano diversi fattori per capire se questo tipo di comportamenti siano realmente pericolosi, tra cui la vicinanza geografica tra soggetti o l'importanza o la posizione di alcune persone. Sono vietati anche comportamenti autolesionisti o che incitano al suicidio, nonché la promozione in qualsiasi modo di questo tipo di comportamenti. A preservare la sicurezza è anche l'allontanamento e il divieto di entrare nella community per tutte le organizzazioni criminali o terroristiche. Bullismo o intimidazioni rappresentano un'altra categoria di comportamenti vietati sulle pagine del social, cui è strettamente collegata quella di minaccia nei confronti di personaggi pubblici. Sono proibite le attività criminali o la promozione di atti di qualsiasi tipo che vanno contro la legge. Violenze e sfruttamenti di tipo sessuale sono assolutamente banditi e, in casi estremi, potrebbero far incorrere in denunce o segnalazioni alla polizia o alle autorità. Sono proibiti vendita o acquisto tramite i canali di comunicazione del portale di sostanze illegali come armi da fuoco, medicinali o droghe. Sono proibiti i contenuti di nudo e le immagini esplicite di rapporti sessuali, così come i contenuti che incitano all'odio e quelli che portano in dote immagini o concetti violenti, sanguinosi e non adatti a tutti. Allo stesso modo sono inibite tutte le comunicazioni commerciali non autorizzate, ma anche l'accesso alla community o ai profili con strumenti non autorizzati o l'utilizzo dei canali del sito per diffondere virus o codici dannosi.

Proprietà intellettuale e zone grigie

Gli standard della comunità mettono in primo piano anche la protezione dell'account, delle informazioni personali degli utenti e della proprietà intellettuale di tutto quello che decidono di pubblicare. L'utente è considerato proprietario esclusivo di tutte le cose che decide di condividere sul portale; Facebook si è comunque riservato il diritto di verificare e vagliare questi contenuti. Un altro aspetto importante è quello del rispetto del diritto d'autore e del copyright, che il portale cerca di tutelare tramite regole e strumenti non del tutto chiari ma comunque citati all'interno dei regolamenti, con la possibilità per gli utenti di segnalare tramite un'apposita sezione questo tipo di violazioni. Anche la trasgressione di queste norme potrebbe portare a ban permanenti o disabilitazione totale di interi account, con la possibilità di ricorsi nel caso i provvedimenti siano stati presi in modo errato. Come in tutti gli altri casi le zone d'ombra sono numerose e la possibilità di incorrere in errori o sviste è piuttosto frequente. Da qui le recenti dichiarazioni di Monica Bickert, responsabile della politica globale di Facebook: "Abbiamo una comunità globale davvero composita e le persone hanno idee molto diverse su ciò che è bene condividere. Ci saranno sempre alcune aree grigie. Ad esempio, il confine tra satira e umorismo e il contenuto inappropriato è talvolta grigio". I moderatori sono spesso in balia di regolamenti contrastanti e di punti di vista che non possono essere compresi al 100% o nel modo necessario per poter dare un giudizio su un utente o un suo contenuto. Più il mondo si riversa su Facebook e più Facebook subisce sulla sua pelle tutte le contraddizioni dell'uomo e della sua società, amplificate e filtrate da uno schermo che non fa altro che peggiorare e rendere molto più difficili le cose. La speranza per il futuro è che vengano investite maggiori risorse nella gestione del sito e nel "filtraggio" dei suoi contenuti, fondamentale per garantire ulteriore protezione a tutte le persone che ogni giorno popolano quella parte ormai imprescindibile della nostra vita che si svolge sulla rete.