Molti Stati hanno iniziato a regolamentare l'IA e la ritengono "pericolosa": ecco perché

Molti Stati hanno iniziato a regolamentare l'IA e la ritengono 'pericolosa': ecco perché
di

L'IA svolge ormai da anni un ruolo centrale nella vita quotidiana di moltissime persone, generando anche diffuse preoccupazioni circa l'impiego delle intelligenze artificiali e il futuro che esse possono garantire alla specie umana. Per esempio, secondo un professore del MIT l'IA potrebbe causare più danni che garantire benefici alla specie umana.

Altri, invece, pongono la questione su un piano diverso, meno generale e più specifico, ovvero quello di come sarà possibile controllare un'intelligenza artificiale in futuro. Queste domande non sono solo frutto di discorsi quasi-fantascientifici, ma hanno anzi un profondo radicamento nella realtà, tanto che il movimento di chi chiede una regolamentazione stringente per l'IA si fa sempre più ampio di giorno in giorno.

In particolare, gli sforzi del movimento si concentrano oggi sulla regolazione degli algoritmi, da cui per certi versi può dipendere la vita di alcune persone: per esempio, Ars Technica riporta il caso di un uomo del Michigan, finito in bancarotta a causa di un'accusa di frode fiscale da parte di un algoritmo basato sull'IA, poi rivelatosi fallace.

Uno dei maggiori riconoscimenti del movimento per la responsabilizzazione legale dell'IA è stata una legge approvata dalla Città di New York la scorsa settimana, che permette di tenere dei veri e propri "interrogatori" all'IA utilizzata dalle aziende: in questo caso specifico, la legge è stata promulgata per rispondere ad un processo in corso, in cui è stato richiesto ad un'azienda di mostrare il funzionamento dei propri algoritmi di gestione delle assunzioni e delle promozioni per verificare che non vi fossero preferenze (volute o meno) basate sull'etnia o sul sesso dei lavoratori.

Intanto, anche il Congresso americano sta lavorando ad una legge che imponga alle aziende di non utilizzare l'IA in alcuni settori "sensibili", come quello medico, dell'impiego, dell'educazione e degli affitti, o quantomeno di accompagnarla ad una selezione operata manualmente da lavoratori umani. La legge dovrebbe essere votata nei prossimi mesi, e potrebbe avere un grande impatto sul funzionamento dei sistemi di welfare privati americani.

Lo scorso mese, poi, la Casa Bianca ha presentato una "Petizione dei Diritti dell'IA", cioè una legislazione relativa all'intelligenza artificiale, che obbliga chi la utilizza a spiegare pubblicamente il funzionamento dei propri algoritmi quando questi devono prendere decisioni particolarmente complesse, da cui potrebbe dipendere la vita di alcune persone, accertandosi anche che l'intelligenza artificiale non sviluppi dei bias cognitivi discriminatori.

Non solo gli Stati Uniti hanno iniziato a regolare l'utilizzo dell'Intelligenza Artificiale nei settori a rischio: lo stesso processo di legislazione sul tema è anzi in corso anche in Cina, Canada, Germana e nel Regno Unito, mentre l'UE ha già creato un registro delle aziende che utilizzano IA potenzialmente "rischiose", da cui dipendono decisioni dal grande impatto sulla vita dei cittadini europei. Si tratta per esempio di grandi istituti bancari, finanziari e di credito, di assicurazioni, di agenzie di vendita e di affitto delle case, di ospedali e cliniche private e di grandi agenzie per il lavoro o multinazionali che utilizzano algoritmi per l'attribuzione degli stipendi dei lavoratori, per le assunzioni e per i licenziamenti.