Il fantascientifico futuro dell'IA e dell'HPC secondo NVIDIA

IA e HPC sono al centro dei piani di NVIDIA, tecnologie del presente che saranno sempre più importanti in futuro.

Il fantascientifico futuro dell'IA e dell'HPC secondo NVIDIA
Articolo a cura di

Come da tradizione, tra il 21 e il 24 marzo scorsi si è tenuta la NVIDIA GPU Technology Conference, o GTC: l'evento, ormai un appuntamento fisso da ben 14 anni, è stato organizzato anche quest'anno in digitale a causa della pandemia da Coronavirus, come aveva già confermato l'azienda di Santa Clara a gennaio, quando NVIDIA ha annunciato il GTC 2022.
Ciò non deve tuttavia trarre in inganno o far pensare che gli annunci del Team Verde siano stati secondari: al contrario, anche nel 2022 è continuato il trend di aumento di dispositivi e prodotti annunciati rispetto agli anni precedenti, iniziato nel 2018. Al centro dell'evento ci sono temi come IA e HPC, due settori in cui NVIDIA sta spingendo forte sull'innovazione.

"Il chip più avanzato sul mercato"

Partiamo dalle "star" della conferenza, nonché dall'annuncio che tutti si aspettavano: le nuove GPU NVIDIA Hopper per server e datacenter.

Il lancio delle GPU Hopper alla GTC, in realtà, è stato più che altro una gradita conferma, dal momento che le schede erano stati anticipate già a inizio marzo dal leak dei prossimi prodotti NVIDIA da parte degli hacker di LAPSUS$.
Quello che non è stato "spoilerato" dagli hacker è poi stato svelato dalla stessa NVIDIA, che durante la campagna promozionale della GTC ha mostrato il design delle GPU Hopper con alcune fotografie esclusive e che infine ha svelato i dettagli tecnici delle schede video il 22 marzo scorso, con l'annuncio ufficiale delle GPU Hopper GH100. Le GPU Hopper, ovviamente, non sono pensate per il gaming, ma dovrebbero fare la felicità di molte aziende specializzate nei settori più all'avanguardia del comparto informatico.

La nostra analisi della scheda grafica GH100 non può che partire dal nome: la dicitura "Hopper" è infatti un omaggio a Grace Hopper, una dei pionieri dell'informatica e colei che ha coniato e diffuso il termine "bug".

Sul piano tecnico, la GPU è stata realizzata con il nodo produttivo a 4 nm di TSMC e vanta un totale di ben 80 miliardi di transistor, risultando secondo NVDIA "il chip più avanzato sul mercato". Inoltre, la scheda vanta un'interfaccia PCIe di quinta generazione e delle memorie HBM3 di dimensione complessiva fino a 80 GB. Insieme, la nuova tecnologia per l'interfaccia e la VRAM di nuova generazione riescono a garantire un impressionante bandwidth complessivo fino a 3 TB/s, che può essere usato da server e datacenter per triplicare le operazioni in virgola mobile a 16, 32 e 64 bit, sestuplicando invece quelle ad 8 bit.
Il chip H100 potrebbe trovare ampio impiego in svariati campi, che vanno dall'IA al machine learning, ma dovrebbe anzitutto essere utilizzata per simulazioni al computer particolarmente complesse, i cui tempi di esecuzione, secondo NVIDIA, potrebbero ridursi da qualche giorno a pochi minuti.

Il nuovo engine della GPU, inoltre, è stato realizzato specificamente per gestire le infrastrutture IA scalabili di grandi dimensioni, come le reti neurali, velocizzando gli algoritmi di training per le intelligenze artificiali.

In particolare, il chip potrebbe essere usato per reti neurali di nuova generazione, o transformers (non QUEI Transformers), la cui capacità di analizzare grandi quantità dati li rende perfetti per il processing e la previsione del linguaggio umano, scrivendo, pronunciando e completando frasi esattamente come farebbe una persona. A completare le possibilità offerte dalle GPU GH100, infine, è la tecnologia NVIDIA NVLink, che permette di collegare tra loro fino a 256 schede grafiche Hopper in un'unica GPU con un bandwidth totale fino a 4,9 TB/s.

Super-CPU e Superchip

Insieme alle GPU Hopper NVIDIA ha annunciato anche le CPU Grace, ovvero i processori consigliati per ogni server che utilizza una scheda video GH100.

Non a caso, dunque, oltre alla CPU "liscia", l'azienda di Santa Clara ha mostrato anche un "Grace Hopper Superchip", che comprende sia una CPU che una GPU e che è stato "pensato per risolvere i problemi di calcolo più grandi al mondo". Ogni chip Grace dispone in realtà di due CPU interconnesse tra loro tramite una tecnologia a bassissima latenza nota come NVLink-C2C, che funziona più o meno come UltraFusion, il sistema alla base del chip M1 Ultra di Mac Studio. Il chip che risulta dall'unione dei due processori è una super-CPU da 144 Core basati sull'architettura Arm v9.

Come precedentemente annunciato, dunque, NVIDIA continuerà a usare l'architettura Arm anche per le sue CPU per l'IA e l'HPC. Purtroppo, al momento non sappiamo altro sulle caratteristiche delle CPU, come poche sono le informazioni relative alla RAM del chip, che però dovrebbe essere di tipo LPDDR5x con tecnologia ECC, in grado di garantire un bandwidth totale di 1 TB/s.
Come la GPU Hopper, anche la CPU Grace e il "Grace Hopper Superchip" dovrebbero trovare ampio utilizzo in ambiti come l'IA trasformativa, il cloud computing (e forse il cloud gaming) e l'HPC. Inoltre, tutti e tre i chip sono stati ottimizzati per i software di NVIDIA, come NVIDIA HPC, NVIDIA AI e NVIDIA OmniVerse. La brutta notizia, però, è che il chip Grace non sarà pronto per la commercializzazione insieme alla GPU Hopper, ma verrà venduto solo a partire dal 2022.

Per mostrare un esempio di utilizzo del Superchip Grace Hopper, NVIDIA è tornata a parlare di Earth-2, il suo progetto di un metaverso identico alla Terra, ma replicato digitalmente e gestito da un apposito supercomputer.

In particolare, il Senior Manager dei prodotti Datacenter di NVIDIA Dion Harris ha mostrato il software di gestione e previsione dei modelli climatici tramite l'IA di Earth-2: il modello, chiamato FourCastNet, o "Fourier Forecasting Neural Network", dovrebbe essere in grado di generare dei climi realistici e accurati a partire da dati provenienti dal mondo esterno, gestendo anche le operazioni più complesse come la formazione e la dimensione delle nuvole. Secondo Harris, FourCastNet potrebbe rivelarsi un prezioso alleato nella lotta al cambiamento climatico, velocizzando tramite l'Intelligenza artificiale la realizzazione di modelli ambientali che possano monitorare il riscaldamento globale e consigliare delle soluzioni per combatterlo.

Il Supercomputer più potente al mondo

Accanto a Earth-2, l'altro grande annuncio software della GTC 2022 è stato la piattaforma NVIDIA OmniVerse, un programma pensato per le simulazioni e il design 3D di interi ambienti.

In realtà, OmniVerse non è una piattaforma completamente nuova, ma all'evento di fine marzo l'azienda di Santa Clara ha annunciato una lunga serie di funzioni aggiuntive per il programma, tra cui una che permette di creare degli avatar 3D con movimenti gestiti dall'IA: per farvi un esempio concreto, il modello 3D del CEO di NVIDIA Jensen Huang mostrato lo scorso novembre e usato come "mascotte" anche per la GTC è stato creato proprio con OmniVerse.
Proprio "Toy Huang" è stato mostrato mentre correva e si muoveva da solo, grazie all'uso in tempo reale dell'IA. La demo, comunque, non è stata fine a sé stessa: al contrario, l'IA utilizzata per "Toy Huang" potrebbe trovare un impiego di primo piano nei veicoli a guida completamente autonoma dei prossimi anni.

Il vero Jensen Huang e...

... "Toy" Jensen Huang!

Rinnovando il proprio impegno nel campo delle auto a guida autonoma, NVIDIA ha anche annunciato il software Hyperion 9, la nuova generazione della propria piattaforma per la gestione della tecnologia in campo automotive.

Il programma, tuttavia, non sarà rilasciato prima del 2024, dopo un prolungato periodo di test in tutto il mondo. Inoltre, l'azienda ha anche spiegato che Omniverse potrà essere utilizzato in campo medico, nella robotica di precisione e nella sicurezza industriale. In quest'ultimo campo, nello specifico, Jensen Huang ha spiegato che le aziende partner potranno caricare sulla piattaforma i modelli 3D di interi stabilimenti, in modo da facilitare la pianificazione industriale e l'impiego dei robot al loro interno.

Per gestire tutti questi applicativi, le cui richieste in termini di hardware sono piuttosto elevate, NVIDIA ha presentato il supercomputer EOS, un server composto 18 "DGX Pod", ciascuno dei quali contiene a sua volta un totale di 8 GPU Hopper collegate tra loro tramite tecnologia NVLink.

EOS dovrebbe garantire una potenza di 0,5 ExaFLOPs, circa il quadruplo del supercomputer Fugaku, il più potente al mondo. In realtà, in linea puramente teorica, l'hardware di EOS è composto dalla metà dei DGX Pod massimi consentiti dalle GPU Hopper e dalla tecnologia NVLink: in futuro, infatti, NVIDIA potrebbe superarsi e produrre un dispositivo con ben 32 Pod, per un totale di 256 GPU Hopper collegate tra loro. NVIDIA, infine, ha spiegato che EOS andrà online nei prossimi mesi: l'accesso al suo hardware, tuttavia, sarà limitato ai partner della compagnia di Santa Clara, secondo cui EOS sarà il "computer per l'IA più veloce al mondo".