Axon indaga sui confini etici dell'IA per studiare i pericoli del riconoscimento facciale

di

L'intelligenza artificiale sta compiendo passi da gigante, ma con l'aumentare delle sue potenzialità si stagliano all'orizzonte diversi problemi etici e legati alla privacy delle persone. In particolare con il riconoscimento facciale, uno dei fiori all'occhiello di Axon, che ha istituito un team dedicato allo studio delle sue implicazioni.

Questa tecnologia sta avendo infatti parecchio successo, come testimonia l'installazione da parte della polizia britannica di telecamere dotate di riconoscimento facciale negli stadi, pronte a riconoscere gli Hooligans tra la folla, ed il tentativo da parte dei servizi di sicurezza cinesi di implementarla all'interno degli occhiali da sole per scansionare i passeggeri nelle stazioni dei mezzi pubblici.

La funzione del team appena costituito sarà quello di aiutare Axon a sviluppare in sicurezza nuovi prodotti e tecnologie che faranno uso del riconoscimento facciale, individuando dei confini etici da non valicare e da rispettare sin dalle prime fasi di progettazione. Una funzione molto importante, visto e considerato che le falle mostrate da questa tecnologia sono sempre in agguato, e possono essere sfruttate anche dagli utenti più comuni.

Se il nome "Axon" vi suona nuovo, probabilmente è perché il nome dell'azienda era Taser International fino all'anno scorso; il nuovo nominativo viene dalla sua piattaforma cloud creata per gestire i video registrati dalle telecamere degli agenti di polizia, che conta circa 20 petabytes di dati, ovvero 20 milioni di gigabyte.

Axon indaga sui confini etici dell'IA per studiare i pericoli del riconoscimento facciale