Facebook userà l'IA per gestire più velocemente i contenuti da moderare

Facebook userà l'IA per gestire più velocemente i contenuti da moderare
di

Facebook ha sempre chiarito che vuole che affidare sempre più doveri di moderazione sulle sue piattaforme all’intelligenza artificiale. Per questo di recente ha annunciato il suo ultimo passo verso tale obiettivo: affidare al machine learning e all’IA la responsabilità della gestione dei contenuti da moderare o inviare ai moderatori umani.

Negli ultimi mesi il colosso di Mark Zuckerberg si è mosso sempre più sul fronte moderazione, bannando prima tutti gli account dei sostenitori di QAnon, il grande movimento cospirazionista antisemita cresciuto esponenzialmente specialmente durante il 2020, e poi bloccando tutte le inserzioni contrarie ai vaccini. Ora, però, per facilitare il lavoro a tutti i dipendenti umani che devono sorbirsi migliaia e migliaia di segnalazioni ogni giorno, la società si affiderà all’intelligenza artificiale per stilare una lista ordinata di post e video da rimuovere e account da bannare dal social.

Attualmente, infatti, la moderazione funziona così: i post di spam, incitamento all’odio o che comunque violano le regole della piattaforma vengono contrassegnati dagli utenti o dai filtri automatici, con alcuni casi gestiti automaticamente e altri messi in attesa per la revisione da parte di circa 15.000 moderatori in tutto il mondo. Se in passato, però, i moderatori esaminavano i post in ordine cronologico, ora Facebook intende assicurarsi che i post più importanti vengano visualizzati in cima alla lista e analizzati con l’aiuto dell’IA. Per questo motivo, in futuro verranno usati ancor più algoritmi che daranno priorità ai post in base a viralità, gravità e probabilità di infrangimento delle regole.

Come verranno valutati questi tre fattori? Non è perfettamente chiaro, ma possiamo immaginarci che la viralità dipenderà dal numero di reazioni, visualizzazioni e condivisioni su Facebook da parte degli utenti; la gravità probabilmente si baserà su parole chiave tematiche, e lo stesso varrà per la probabilità di infrangimento, magari valutando in tal caso la frequenza di tali parole. Ciò però potrebbe significare che contenuti riguardanti terrorismo, sfruttamento di minori o autolesionismo verranno trattati per primi, mentre post come lo spam, fastidiosi ma non traumatici, verranno invece classificati come meno importanti per la revisione.

Si tratterà dunque della valutazione di parole contenute nel post, analisi delle immagini o dei frame di un video, e anche altri fattori giudicati potenzialmente dannosi dall’IA. Ciò ovviamente apre anche alla possibile presenza di bias (da intendere sia come mancanza di informazioni che come eventuali errori di valutazione causati da pregiudizi o fraintendimenti) negli algoritmi, i quali potrebbero contrassegnare un post più dannoso di un altro anche se non è così. Già in passato l'uso dell'IA per moderare Facebook è stato oggetto di esame da parte dell’azienda, concludendo che la tecnologia manca della capacità di un essere umano di giudicare il contesto di molte comunicazioni online, soprattutto con argomenti come disinformazione, bullismo e molestie.

L’ingegnere di Facebook Chris Palow ha confermato che questo problema esiste, ma ha ribadito che l’IA non sarà comunque perfetta in alcun caso: “Il sistema consiste nel far sposare intelligenza artificiale e revisori umani per fare meno errori totali”.

FONTE: The Verge
Quanto è interessante?
1
Facebook userà l'IA per gestire più velocemente i contenuti da moderare