L'AI di Google apprende 3.000 anni di conoscenza umana in 40 giorni

di

AlphaGo, il progetto supervisionato da Google che utilizza l'intelligenza artificiale DeepMind è stato svelato nella sua ultima versione. Il nuovo programma è notevolmente migliorato rispetto alla precedente versione che ha battuto il campione del mondo a Go.

AlphaGo ha stupito il mondo l'anno scorso quando ha battuto il campione del mondo Lee Se-dol a Go, un gioco antico e complesso di strategia e intuizione che molti credevano non potesse mai essere appreso da una macchina. AlphaGo era stato così efficace l'anno scorso perché era stato programmato con milioni di mosse di vecchi maestri del gioco e poteva prevedere le proprie probabilità di vincita, adeguando di conseguenza la propria strategia di gioco.

Ora la stessa squadra ha creato una nuova versione che imparato a giocare conoscendo solo le regole del gioco. AlphaGO ha imparato a giocare da solo, all’inizio con mosse e strategie da chiaro neofita ma ha poi nel tempo imparato mosse migliori, semplicemente giocando milioni di giochi contro se stesso. In soli tre giorni aveva sconfitto tutte le versioni di AlphaGo e, in 40 giorni, aveva individuato i fondamentali del gioco che gli umani hanno invece individuato in 3.000 anni. Ha anche sviluppato nuove strategie con momenti di pura creatività.

Il co-fondatore e CEO Demis Hassabis di DeepMind ha affermato che il programma è stato così potente perché "non più vincolato dai limiti della conoscenza umana".
Hassabis ritiene che se applicato a grossi problemi di salute, come la sconfitta dell'Alzheimer, AlphaGo potrebbe, in un paio di settimane, trovare cure che gli esseri umani scoprirebbero solo con tantissimi anni di ricerca.