No, la Silicon Valley non sta lucrando sull'odio razziale su internet

Dopo Charlottesville la Silicon Valley è stata accusata di non fare abbastanza contro l'odio in rete, ma il suo impegno su questo fronte è colossale.

No, la Silicon Valley non sta lucrando sull'odio razziale su internet
Articolo a cura di

Che il web avesse un problema con l'odio e il razzismo era cosa nota da tempo. Che l'estrema destra mondiale stesse utilizzando i principali social come megafono e luogo di ritrovo, pure. Eppure solo ora i riflettori dell'opinione pubblica sembrano essere puntati sul tema, assecondando, finalmente, quelle cassandre che ad oggi, isolate e sole, avevano cercato di denunciare il problema.
E così, questo bubbone per troppo tempo ignorato, si prepara ad esplodere portando conseguenze sempre più grame nella vita reale. Ammesso che si possa davvero porre un distinguo tra web e mondo vero. È notizia di poco tempo fa la decisione del Presidente della Camera Laura Boldrini di intraprendere azioni legali contro chi, negli ultimi anni, ha speso nei suoi confronti parole di una violenza atroce, spesso arrivando a vere e proprie minacce. Ed è notizia ancora più recente quella della morte di una ragazza a Charlottesville, uccisa da un manifestante di estrema destra -della famigerata Alt-Right- mentre protestava contro l'adunata dei neonazisti nella città. E anche quella che normalmente avrebbe tutti i crismi per essere una notizia di cronaca "del mondo vero", ha contribuito ulteriormente a creare e rafforzare dubbi e diffidenze nei confronti del web e del morbo dell'odio che da tempo si porta dietro. Quanti di quei ragazzi che a Charlottesville indossavano patch con la svastica e sventolavano bandiere inneggianti al KKK hanno visto le proprie paure, le proprie insicurezze, il proprio odio viscerale, alimentati -se non proprio forgiati- dai luoghi di ritrovo della destra estrema americana sul web, dai siti di controinformazione come InfoWars e il DailyStormer, dalle imageboard, dai thread su Reddit, dai gruppi che inneggiano alla supremazia bianca su Facebook?
Non è una domanda semplice, non esistono risposte banali. Evidentemente, però, qualche dubbio la Silicon Valley se l'è posto.

Dopo i fatti di Charlottesville

Su Everyeye vi abbiamo già raccontato di come alcune compagnie, in virtù di quanto successo a Charlottesville, abbiano deciso di fare terra bruciata attorno ai neo-nazisti e agli incitatori di odio. Spotify, su pressione di alcuni siti che si occupano di musica, ha rimosso ogni gruppo di estrema destra dalla piattaforma; Apple Pay ha fatto un repulisti di tutti quei siti che vendevano merchandising nazista usando il suo servizio per i pagamenti. Una scelta, quest'ultima, simile a quella presa da Paypal contro il movimento Generazione Identitaria. Ancora prima dell'inizio degli eventi di Charlottesville AirBnB si è semplicemente rifiutata di affittare camere a qualsiasi persona fosse ricollegabile alla manifestazione Unite the Right. Uber si è aggiunto al coro di biasimo impegnandosi a bannare i suprematisti dalla propria app, specie dopo che due di questi avevano fatto dei commenti razzisti su un driver di colore. Infine, Google che ha rimosso Gab, il social network dell'Alt-Right americana, dal proprio Play Store per Android.
Per quanto sia, comprensibilmente, solo ora che si è arrivati ad una risposta di una forza così inaudita, sarebbe scorretto parlare di mosse isolate, o semplicemente di una ripulita improvvisata per pulirsi la coscienza dopo l'ultima tragedia. Quello della repressione dell'odio e degli estremismi è un trend ben collaudato che sta facendo passi sempre più audaci.

Eppure nemmeno nel panorama italiano sono mancate osservazioni ed accuse al mondo del tech da parte, in alcuni casi, di personaggi illustri del giornalismo italiano. Proprio dopo la decisione del Presidente della Camera di cui abbiamo scritto sopra, Enrico Mentana, ha accusato Facebook di lucrare sull'hate speech. "Ma su tutte queste campagne d'odio verso le donne, i migranti, gli omosessuali, gli ebrei, gli islamici -scriveva Mentana sulla propria pagina Facebook lo scorso lunedì- Facebook non ha niente da dire? Incassa (in tutti i sensi) e basta?". E ancora, "Ce la prendiamo solo con lo zotico che pubblica vergognose parole, e riveriamo il padrone di casa che gli dà modo di scriverle e di farsi condividere?". "Il miracolo della moltiplicazione dei dollari gli è riuscito però, anche lucrando sull'hate speech", ha risposto, poi, ad un ragazzo che gli faceva notare che il social di Mark Zuckerberg non poteva certo fare miracoli. Fa un certo effetto vedere perfino una persona come Mentana, che spesso ci ha regalato analisi di tutto rispetto e la cui professionalità è fuori discussione, cadere in fallo quando si parla di un tema così delicato. Quelle del giornalista di La7 sono accuse che non rendono giustizia al ruolo di Facebook in questa battaglia e che, a dirla proprio tutta, andrebbero liquidate come falsità.

Le pressioni delle leggi nazionali e dell'Unione Europea

Che le iniziative di cui parleremo ora siano spontanee o indotte è sicuramente una questione su cui si può discutere per ore. Noi crediamo che un ruolo consistente ce l'abbia l'opinione pubblica. Compagnie come Facebook hanno un brand ed è loro compito difendere la sua reputazione a tuti i costi, che intervenga lo Stato con le sue leggi o meno. Tuttavia è utile sapere che i Paesi di tutto il mondo non sono stati fermi a guardare, ma, anzi, hanno preso iniziative, spesso draconiane, contro il fenomeno dell'hate speech.

In Germania lo scorso Giugno è stata approvata una legge estremamente controversa che, non a caso, ha assunto il nomignolo di "Facebook Law", la Legge Facebook. Berlino non si è perso in troppi fronzoli andando dritto al punto: o i social rimuovono entro 24h i contenuti manifestamente illegali -e l'incitamento all'odio in Germania è considerato un reato estremamente grave- o affronteranno sanzioni fino ad un massimo di 50 milioni di euro. Non esattamente bruscolini, nemmeno per colossi del tech. Stesso obiettivo, ma approccio più flessibile, per l'Unione Europea. Nel 2016 la Commissione si è seduta al tavolo con i rappresentanti delle principali compagnie della Silicon Valley firmando con loro un Codice di Condotta che impegna Facebook, Twitter, Microsoft e YouTube a rimuovere i contenuti che inneggino al terrorismo e alla discriminazione entro 24 ore. Inoltre le quattro compagnie devono anche promuovere tutte quelle iniziative che portino avanti una contronarrazione alla retorica dell'odio. La misura dell'UE non prevede coercizione, né un vero e proprio apparato sanzionatorio, limitandosi a spronare le compagnie a raggiungere l'ambizioso obiettivo. Inoltre, l'Unione Europea, ogni anno, prevede il rilascio di un report a cura della Commissione dove viene valutato il livello di adesione all'impegno preso delle quattro aziende informatiche. Ed è proprio nella lettura del report di quest'anno -il primo ad essere prodotto dalla firma dell'accordo- che emerge un dato interessante: di tutte le compagnie Facebook è quella che più di tutte si è dimostrata attenta agli obiettivi posti dall'UE, riuscendo a monitorare il 58% delle segnalazioni ricevute entro 24 ore. Insomma, proprio Facebook, bersaglio dell'invettiva di Mentana, accusata di lucrare sull'odio, è in realtà -parola dell'UE- l'azienda che più di tutte è riuscita a rispettare gli impegni presi. Per capirci, nel report seguono a ruota YouTube con il 42.6% delle segnalazioni controllate entro una giornata e, quindi, Twitter con solo il 39%.

E ricordiamo che questo è solo il quadro europeo, negli Stati Uniti la questione si fa ben diversa complici ragioni non esattamente banali. In Nord America, ad oggi, non esiste alcun complesso di norme che contrastino l'hate speech online, né tantomeno si ha notizia di iniziative simili a quella promossa dall'Unione Europea. Negli Stati Uniti è il Primo emendamento della Costituzione americana a tutelare la libertà di parola, un principio che è intrinsecamente legato alla cultura statunitense e che, ad esempio, fa sì che andare in giro vestiti da SS non sia in alcun modo un reato nella maggior parte degli Stati del Paese, se non in tutti. Vi basti pensare che due autorevoli Think Tank americani, come l'ACLU (American Civil Liberties Union) e l'EFF (Electronic Frontier Foundation) si sono schierati contro la decisione di censurare i contenuti nazi presa dai colossi del tech, in seguito ai fatti di Charlottesville. Nessuno dei due Think Tank fa parte della galassia conservatrice, nemmeno alla lontana. Difficile stabilire quale sia l'approccio migliore, e indubbiamente non è questo il luogo adatto per affrontare un discorso tanto complesso. Vi basti sapere che le scelte della Silicon Valley sono prese nell'ambito di un Paese che è una prateria libera sotto questo profilo.

Cosa sta facendo Facebook contro l'odio, seriamente

Le strade scelte da Facebook per combattere l'odio sul suo social, sono fondamentalmente due: una schiera sempre più ricca di moderatori in carne ed ossa e un algoritmo in costante perfezionamento. Una scelta che è comune a molte altre realtà. Qualche settimane fa vi abbiamo, infatti, raccontato di come YouTube usi sia moderatori che un algoritmo per scandagliare la propria piattaforma alla caccia dei video propagandistici dei jihadisti. Curiosamente, per ammissione di Google, l'algoritmo si è dimostrato molto più rapido ed efficace delle segnalazioni inviate dagli utenti della piattaforma.
Dopo che su Facebook fu trasmesso in diretta live l'omicidio di un uomo di colore, il social ha deciso di aumentare ulteriormente il numero dei propri moderatori, portandoli da 4.500 a 7.000.

Un interessante articolo dello scorso maggio del The Guardian raccontava la dura routine del moderatore di Facebook. Nulla di esattamente piacevole, ma rende perfettamente l'idea degli sforzi del social per tenere il proprio sito pulito da terrorismo e odio razziale. I turni descritti dai lavoratori sentiti dalla testata inglese sono estremamente rigidi: dalle nove di mattina, ogni giorno, per tutta la giornata, i moderatori esaminano contenuti indicibili, dovendo spesso controllare video e foto cruenti. "Ogni giorno molti di noi dovevano vedere uno psicologo. Alcuni non potevano dormire, altri avevano gli incubi", racconta esasperato uno dei lavoratori al The Guardian. I ritmi? Quelli di una catena fordiana, con picchi di mille contenuti multimediali da controllare ogni giorno. I contenuti possono essere ignorati, rimossi o segnalati ad un dipendente di livello superiore per i casi più gravi. Lo scenario descritto è agghiacciante, i contenuti che devono visionare i moderatori anche di più, e il quadro generale è quello di una compagnia che dovrebbe dare maggiore sostegno umano a chi si occupa di un lavoro tanto delicato, non certo quello di un'azienda che si disinteressa -o peggio, lucra- sui contenuti più gravi.
Per quanto riguarda l'algoritmo di Facebook per segnalare e monitorare i contenuti più gravi, non si hanno molte informazioni sul suo funzionamento complessivo. Quello che sappiamo viene tutto da informazioni circoscritte a determinati aspetti. Possiamo comunque dare per certo che, per facilitare il lavoro dei moderatori, almeno per quanto riguarda i testi scritti, esista una sorta di filtro costituito da un controllo automatizzato. Molti utenti hanno notato come alcune parole siano semplicemente bandite da facebook, che non si fa problemi ad eliminare qualsiasi commento o post le contenga. Per capirci, una parola dispregiativa nei confronti delle persone di colore implica la rimozione del post a prescindere dal contesto, con la conseguenza che se una persona di colore la usasse ironicamente, si vedrebbe comunque il post cancellato.

Sappiamo inoltre che Facebook è in grado di mettere nella black list anche articoli specifici o interi siti internet. L'algoritmo di Facebook, se richiesto, può oscurare un determinato contenuto solo a determinate condizioni. È notizia di qualche giorno fa che Facebook avesse messo nella sua blacklist il Daily Stormer, un sito neonazista che aveva dedicato alla donna morta a Charlottesville un lungo articolo di sfottò. In quell'occasione Facebook è stato in grado di rimuovere l'articolo ogni qualvolta venisse condiviso. Ma solo nel caso in cui la condivisione fosse stata accompagnata da elogi per la testata, nel caso di critiche il post non veniva toccato.
Un racconto a parte lo meriterebbero, invece, i criteri con cui Facebook decide di eliminare un contenuto o meno. Se il quadro generale è più che positivo -e il dato emerso dal report dell'UE rende questa affermazione inconfutabile- l'operato di Facebook non è comunque esente da critiche. Anzi. Sempre il The Guardian era riuscito qualche mese fa ad ottenere le linee guida interne di Facebook. Un vero e proprio manuale del perfetto moderatore, dove si legge, caso per caso, come comportarsi davanti ai contenuti borderline. I meccanismi non sono immediati, e non mancano cose bizzarre: sarebbe ad esempio censurabile un post contro la categoria uomini bianchi -e ci mancherebbe- ma non uno contro la categoria bambini neri. Il motivo? Il social gioca per combinazione di categorie protette; Sesso e etnia sono entrambe protette, l'età no. Così, bambini e anziani non sarebbero meritevoli di tutele specifiche.

Aveva, poi, fatto molto discutere l'assenza di ripercussioni nei confronti di chi nega l'esistenza dell'olocausto. Attenzione, non stiamo parlando di chi scrive commenti antisemiti -le etnie, come detto, sono categorie protetta- ma di chi condivide video o testi che portino avanti la teoria antistorica che il III Reich non abbia applicato la soluzione finale contro gli ebrei. Per Facebook post del genere non andrebbero cancellati, nemmeno nella maggior parte degli Stati dove questo è reato.
Il motivo di una scelta che ci appare come deprecabile è semplice. Il social network deve districarsi tra due priorità: la tutela della libertà di parola (che abbiamo detto essere particolarmente forte nella cultura americana) e la tutela dell'integrità delle minoranze, che devono essere protette dall'odio. Specie se questo rischia di trasformarsi in violenza fisica, come abbiamo avuto modo di vedere. Trovare questo equilibrio non è banale, e spesso quello individuato da Facebook potrebbe non apparirci come giusto. Ma prima di addentrarci nella discussione di cosa funzioni e di cosa vada cambiato, è fondamentale comprendere che sono entrambe preoccupazioni legittime che occupano uno spazio considerevole nei piani di un'azienda del genere. Tutto il resto sono chiacchiere da bar, anche se a pronunciarle è un giornalista blasonato.