DeepMind inaugura un team che si occuperà delle implicazioni etiche delle AI

di

Tra scenari apocalittici e moniti inquietanti di personalità come Putin e Elon Musk, le AI hanno sollevato non pochi interrogativi sul piano squisitamente etico. Interrogativi a cui Deep Mind -la stessa sussidiaria di Google che sta sta collaborando con Blizzard- vuole dare risposta con un team creato "ad hoc".

Trai problemi che il team dovrà studiare –nella speranza di poter formulare possibili soluzioni– ci sono l'impatto delle AI sul mondo del lavoro e, in particolare, sulla disoccupazione, la necessità che le intelligenze artificiali operino secondo principi morali ed etici condivisi e, quindi, i possibili modi per evitare che una AI si distanzi dagli scopi e dalle regole per cui e con cui è stata programmata –si pensi al caso delle esternazioni razziste d Tay, il bot sviluppato da Microsoft.

Questioni non esattamente banali, ma semplicemente imprescindibili per chiunque voglia operare nel campo delle AI da qui ai prossimi anni. Una tecnologia relativamente nuova –quanto meno con le implementazioni attuali– che ha interessato con particolare intensità la stampa mondiale e l'opinione pubblica. Questo ha, ovviamente, introdotto nuove preoccupazioni e nuovi problemi che meritano risposte chiare.

DeepMind non è l'unico ad interrogarsi sui cambiamenti che queste tecnologie potrebbero virtualmente introdurre in un futuro estremamente vicino. Anche l'ONU, di recentissimo, ha inaugurato un centro di studio e di ricerca interamente dedicato al tema delle AI e della robotica.

Il team si chiama DeepMind Ethics & Society e pubblicherà paper e report a partire dall'inizio del 2018. Saranno ben 8 i membri assunti con contratto a tempo pieno che si occuperanno di questo progetto, ma l'obiettivo è quello di arrivare ad almeno 25 membri dello staff entro un anno dall'inzio delle attività. Ad assistere il team anche 6 consulenti esterni che lavoreranno da volontari, tra questi il professore di Oxford Nick Bostrom –filosofo noto per il suo libro "AI existential risk". Inoltre il DeepMind Ethics & Society collaborerà con altri enti che si sono preposti obiettivi simili, come l'AI Now Institute della NYU e il Leverhulme Centre for Future of Intelligence.

FONTE: The Verge
Quanto è interessante?
9