Stephen Hawking: "l'umanità può autodistruggersi a causa dell'IA"

di

Dopo gli allarmi sull'intelligenza artificiale lanciati da Elon Musk nella giornata di ieri, che ha definito l'IA più pericolosa delle armi nucleari, arrivano altre dichiarazioni piuttosto preoccupanti a riguardo. Nella giornata di oggi, infatti, si è espresso l'autorevole astrofisico britannico Stephen Hawking.

Parlando nel corso di un evento tenuto all'Università di Cambridge, lo scorso anno aveva affermato che "la nostra Terra sta diventando troppo piccola per noi, la popolazione globale sta aumentando ad un ritmo allarmante e siamo in pericolo di autodistruggerci".

Di recente, ad Hawking ha risposto Durwood Zaelke, fondatore e presidente dell'Istituto per la Governance e lo Sviluppo Sostenibile, un'organizzazione no profit che mira a "promuovere società giuste e sostenibili, e proteggere l'ambiente promuovendo la comprensione, lo sviluppo e l'attuazione di sistemi di governance per lo sviluppo sostenibile".

Secondo Zaelke i commenti di Hawking sono "perfetti", dal momento che "stiamo inseguendo un problema che si muove troppo rapidamente, accelerando i cambiamenti climatici, con soluzioni a movimento lento, e restiamo indietro giorno dopo giorno", mentre le popolazioni continuano ad espandersi.

Come Hawking, anche Zaelke ritiene che siamo vicini al punto critico in cui i cambiamenti climatici diventeranno irreversibili, i quali sono destinati a "minacciare la nostra specie e civiltà".

Hawking suggerisce anche che ormai siamo costretti a muoverci oltre i confini rappresentati dal pianeta Terra, un aspetto su cui il fisico teorico ha più volte posto l'accento.

Di recente, lo stesso inglese si è anche concentrato, nel corso di un'intervista rilasciata per WIRED, sullo sviluppo dell'intelligenza artificiale, un tema da sempre molto caro sia a lui che ad altre menti eccellenti. Hawking nel corso della chiacchierata con il magazine ha affermato che, ormai, "il genio è uscito dalla bottiglia. Temo l'intelligenza artificiale possa sostituire a tutti gli effetti gli umani".

Hawking, come Musk, teme che a lungo termine svilupperemo un'intelligenza artificiale troppo intelligente: "un'intelligenza artificiale superintelligente sarà estremamente brava a realizzare i propri obiettivi, e se questi obiettivi non si allineeranno con i nostri, saremo nei guai".

Il britannico è d'accordo con il fondatore di Tesla nel ritenere che "una qualche forma di governo mondiale" debba avere il controllo della tecnologia per assicurarsi che le macchine non si alzino e si ribellino, come accaduto in molti film.

Non è dello stesso avviso Pascal Kauffman, fondatore di Satarmind e presidente di Mindfire Foundation, una società specializzata proprio nello sviluppo di IA, secondo cui "è affascinante quando si parla di intelligenza artificiale, in quanto i nostri primi pensieri vanno immediatamente agli esseri umani schiavizzati. Questa prospettiva l'abbiamo vista nei film, ma non significa che rispecchi a pieno la realtà".

Kuffmann, tuttavia, non nega un futuro caratterizzato da un'IA distruttiva. "Ci sono pericoli che derivano dalla creazione di una tecnologia così potente e onniscente, ma pericoli simili sono presenti in tutto ciò che è potente. Questo non significa che dovremmo prendere decisioni potenzialmente dannose basandoci su questa paura".

FONTE: Futurism
Quanto è interessante?
5