Quanta sicurezza in sé stessi devono avere i Robot per integrarsi nella società?

di
INFORMAZIONI SCHEDA
Si parla sempre più di intelligenza artificiale nelle ultime settimane, a conferma del fatto che la rivoluzione delle IA ci sta letteralmente scoppiando in faccia. Non a caso all'università della California - Berkeley si son chiesti come rendere possibile l'integrazione dei robot nella nostra società.

Tutte le congetture degli studiosi sono state teorizzate, simulate e testate più volte prima di raggiungere i primi risultati che danno una risposta alla loro domanda: quanta sicurezza nelle proprie convinzioni bisognerà dare ad un robot con una IA avanzata? La questione non è affatto banale ed ha delle implicazioni non scontate: per prima cosa, bisogna capire le differenze fra come può ragionare una IA e come ragiona un essere umano.

Gli esseri umani prendono le loro decisioni basandosi sulla propria conoscenza ed attribuendo ad essa un certo grado di probabilità che dipende dall'esperienza pregressa (e anche da un certo grado di bias). Ci sono individui più sicuri di sé stessi e quindi più propensi ad affermare la loro verità come assoluta ed altri meno inclini ad imporsi e più insicuri. Un robot dotato di IA basata sul Deep Learning non ha questi problemi: una volta arrivato ad una conclusione non ha alcun motivo di dubitare della propria risposta se non esistono nuovi dati in input.

Arrivati a questo punto dovreste aver capito qual è il problema: quanta sicurezza in sé bisogna conferire ad una IA avanzata, ovvero con che grado di affidabilità deve valutare le proprie certezze? Troppa sicurezza potrebbe essere deleteria, perché scavalcherebbe i desideri umani. Un robot con poca confidenza in sé stesso, d'altro canto, risulterebbe inutile. Per risolvere la questione i ricercatori di Berkeley hanno ideato un modello matematico che descrive l'interazione fra un umano e un robot, che aggiusta la confidenza che l'IA ha in sé stessa in base all'interazione che ha con l'umano.

In una simulazione un ricercatore ha chiesto ad un robot di eseguire una sua richiesta (che rimane ignota, ma potete pensare che gli sia stato ordinato di calcolare le spese mensili). In seguito, l'umano ha permesso al robot di potersi spegnere premendo il suo pulsante OFF piuttosto che continuare a compiere l'azione. A seconda dell'autostima conferita alla IA si sono ottenuti due risultati diversi: con un'alta autostima il robot è stato in grado di non spegnersi e continuare il proprio compito, mentre con una bassa autostima il robot ha seguito la seconda istruzione dell'umano spegnendosi, nonostante pensasse di star facendo un'ottimo lavoro.

In un altro esempio invece, si è ottenuto un effetto opposto: una IA dotata di ottima consapevolezza di sé stessa che deve scegliere quali news mostrare sulla Home di Facebook si è rivelata un disturbo continuo per via del continuo spam e delle fake news. Nel caso opposto, conferendo poca sicurezza al robot questo problema viene evitato.

La chiave di questa ricerca risiede nelle informazioni che vengono date al robot: per migliorare il suo comportamento ha bisogno di una quantità di dati immensa, che spesso noi stessi diamo per scontato. Ad esempio è normale per un adulto comportarsi in modo differente con un bambino, capendo che non ha raggiunto la maturità, mentre una IA non capirebbe quale sia la differenza finché non gli vengono forniti i dati per variare il proprio giudizio.