I giganti della tecnologia si impegnano a non sviluppare IA per sistemi militari

I giganti della tecnologia si impegnano a non sviluppare IA per sistemi militari
di

I giganti del settore tecnologico, tra cui Elon Musk ed i tre cofondatori della controllata di Google, DeepMind, hanno firmato un accordo attraverso cui si sono impegnati a non sviluppare sistemi militari basati sull'intelligenza artificiale, che potrebbero diventare potenzialmente dannosi per l'umanità.

Si tratta di una mossa molto attesa da parte degli osservatori, che già da tempo avevano chiesto un accordo del genere, per evitare possibili scenari catastrofici in cui delle armi autonome avrebbero potuto selezionare ed uccidere dei bersagli autonomamente e senza alcun tipo di intervento umano. Moralmente, sostengono i firmatari, la decisione non rispetta i canoni in quanto "la vita umana non dovrebbe mai essere controllata da una macchina". Sul fronte pragmatico, invece, i firmatari affermano che la diffusione di tali armi sarebbe "pericolosamente destabilizzante per ogni paese ed individuo".

L'impegno è stato firmato oggi all'International Joint Conference on Artificial Intelligente (IJCAI) a Stoccolma, un evento organizzato dal Future of Life Institute, un'associazione che mira a "mitigare il rischio esistenziale" per l'umanità. Lo stesso istituto in precedenza aveva chiesto a gran voce l'intervento delle Nazioni Unite sul tema delle così dette armi letali autonome, ma questa è la prima volta che persone coinvolte direttamente nel settore si impegnano individualmente a non sviluppare tale tecnologia.

Nei firmatari figurano il CEO di SpaceX e Tesla, Elon Musk, i tre cofondatori di DeepMind, Shane Legg, Mustafa Suleyman e Demis Hassabis, il fondatore di Skype Jaan Tallinn ed alcuni dei ricercatori più importanti del mondo, tra cui Stuart Russell, Yoshua Bengio e Jurgen Schmidhuber.

Max Tegman, un firmatario e professore di fisica al MIT, in un comunicato ha voluto sottolineare di come l'impegno assunto dai leader di passare dalle parole ai fatti sia ormai reale. "Le armi che decidono autonomamente di uccidere le persone sono disgustose e destabilizzanti come le armi biologiche e dovrebbero essere trattate allo stesso modo" ha affermato.

Fino ad ora, i tentativi erano andati tutti a vuoto, ma questo rappresenta un passo importante. Gli attivisti hanno anche suggerito che le armi da fuoco autonome dovrebbero essere soggette a restrizioni, come quelle a cui vengono sottoposte le armi chimiche e le mine antiuomo. La tecnologia, tuttavia, è già ampiamente diffusa e bisogna tracciare dei confini per stabilire cosa vietare e cosa no.