Facebook: "sulla strage di Christchurch gli algoritmi hanno fallito"

Facebook: 'sulla strage di Christchurch gli algoritmi hanno fallito'
di

Facebook ha fatto un lavoro imponente per assicurarsi che i video della strage di Christchurch non venissero diffusi sulla sua piattaforma. Il problema è che la diretta dell'evento condivisa dal terrorista è stata guardata da oltre 200 persone. Arriva l'ammenda: "i nostri algoritmi hanno fallito".

I chiarimenti e le scuse arrivano con un lungo post del vicepresidente di Facebook Guy Rosen. "L'intelligenza artificiale nel corso degli anni ha fatto enormi progressi in molte aree, questo ci ha permesso di identificare efficacemente la stragrande maggioranza dei contenuti che devono essere rimossi. Ma non è perfetta", ha ammesso Rosen.

Come è noto le IA hanno fame di dati, per imparare necessitano di milioni di informazioni, che devono venire assimilate dagli algoritmi. Per il nudo o per le immagini che inneggino al terrorismo questo non è difficile, esistono database con centinaia di milioni di esempi. Ma una strage del tipo di Christchurch? "Fortunatamente in questo caso non abbiamo migliaia di esempi, perché gli eventi come quello neozelandese sono rari".

Più che l'impreparazione, pesano i limiti intrinsechi nel funzionamento del machine learning. Più semplice l'operazione a cose fatte: Facebook ha rimosso 1,5 milioni di copie del video dell'attentato, è bastato addestrare gli algoritmi per identificare tutti i video visivamente simili alla diretta originale.