L'intelligenza artificiale parla italiano: dal Politecnico di Torino una grande scoperta

L'intelligenza artificiale parla italiano: dal Politecnico di Torino una grande scoperta
INFORMAZIONI SCHEDA
di

Comprensione e duplicazione della mente umana sono obbiettivi ambiziosi da perseguire, e scienziati di ogni campo hanno spesso unito le capacità per affrontare ad una delle sfide più affascinanti del nostro tempo. Fisica, Biologia, Ingegneria, Matematica, ogni aspetto è fondamentale per svelare la più complessa macchina di calcolo.

Per fare questo, un team di ricercatori tutto italiano, coordinato dal prof. Carlo Ricciardi, docente del Dipartimento di Scienze Applicate e Tecnologia-DISAT del Politecnico di Torino, insieme al prof. Daniele Ielmini del Politecnico di Milano ed al ricercatore Gianluca Milano dell’Istituto Nazionale di Ricerca Metrologica-INRiM, ha sviluppato un sistema fisico (hardware) capace di imitare le proprietà del cervello umano che sperano ridurrà inoltre in modo considerevole i costi energetici delle attuali reti neurali, fondamentali per lo sviluppo delle future IA (magari un giorno l'Intelligenza Artificiale sostituirà anche i musicisti?)

Nell'articolo pubblicato sulla prestigiosa rivista internazionale Nature Materials, il team ha illustrato come le reti neurali possano essere costruite utilizzando una architettura di nanofili d'argento di scala nanometrica (la stessa dimensione delle sinapsi biologiche) che mostrano le tipiche funzioni neurali come adattabilità, plasticità e correlazione spazio-temporale.

Dal punto di vista puramente tecnico, è stato spiegato che i nodi tra i nanofili sono di natura "memristiva" (un neologismo tra memoria e resistore), che nell'ambito della teoria dei circuiti è un componente elettronico non lineare passivo, il che significa che la loro resistenza dipende dalla tensione che li ha attraversati.

In particolare, il sistema che il team ha proposto è composto da due architetture: la rete di nanofili reagisce agli input, producendo un output spazio-temporale a dimensionalità ridotta e transitorio, il quale viene poi processato da una matrice di RAM resistive non volatili.

Inoltre è stato dimostrato come la compressione dei parametri operata dalla rete di nanofili, comporta anche una notevole diminuzione del consumo complessivo, poiché, così come succede anche per le reti neurali biologiche, la maggior parte del utilizzo energetico nei sistemi di Intelligenza Artificiale è legata al training (addestramento) della rete.

Queste le parole del prof. Ricciardi: “Abbiamo mostrato che è possibile implementare ‘in materia’ la dinamica dei processi cognitivi che da un lato sfruttano la memoria operativa a breve termine per richiamare e confrontare immagini, idee e simboli, mentre dall’altro classificano i risultati in variazioni strutturali delle nostre connessioni. Inoltre, tali dispositivi possono implementare paradigmi computazionali che necessitano di un addestramento limitato come il reservoir computing, aprendo la strada non solo a computer sempre più intelligenti e a basso consumo, ma anche a protesi neurali impiantabili, che un domani potrebbero consentire il recupero o il contenimento di funzioni neurali in regressione”.

La scienza quindi parla italiano, e possiamo affermarlo con orgoglio come testimoni di quanto i nostri scienziati stanno facendo in campo internazionale. Come non citare ad esempio il recente Premio Nobel per la Fisica 2021 Giorgio Parisi, o la candidatura al Nobel per la Pace di tutto il personale sanitario italiano.

L'intelligenza artificiale parla italiano: dal Politecnico di Torino una grande scoperta