Si è tenuta a marzo la GTC NVIDIA, l’appuntamento dove le menti più brillanti del mondo nel campo della informatica, della ricerca, della robotica, si ritrovano e presentano i progressi tecnologici nel campo dell’Intelligenza Artificiale, della collaborazione e della potenza.
Le ha presentate nel suo keynote Jensen Huang, CEO di NVIDIA. Vediamo insieme le più importanti.
Innanzi tutto NVIDIA col passare degli anni si è trasformata. Non è più un’azienda che costruisce semiconduttori ma è diventata una piattaforma che comprende 4 livelli: hardware, software di sistema, piattaforma software e applicazioni. Ogni livello è aperto a computer maker, service provider e sviluppatori affinché possa essere integrato con le loro soluzioni. Oggi la piattaforma AI di Nvidia è utilizzata da 3 milioni di sviluppatori e 10.000 start up.
Il progetto Earth 2 si è rinfrescato il look. Utilizzando i dati approfonditi di previsioni meteorologiche, aiuta a creare simulazioni di clima e atmosfera. I modelli creati rappresentano un passo importante nelle previsioni di eventi atmosferici e per studiare il cambiamento climatico.
Maxine è la demo della libreria per le videochiamate gestite con l’Intelligenza Artificiale capace di cambiare lingua, adattando i movimenti labiali, e di cambiare la messa a fuoco in automatico affinché gli occhi dell’oratore siano sempre centrali.
Collegati a Maxine, ci sono anche i progetti Merlin 1.0, un framework di intelligenza artificiale per sistemi di hyperscale, e Nemo Megatron, che viene utilizzato per l’addestramento di modelli linguistici di grandi dimensioni.
Ma è nel campo delle GPU, CPU e networking che ci sono stati gli annunci più rilevanti. Le applicazioni di Intelligenza Artificiale come webinar ed eventi online, customer service, computer vision, robotica, sistemi di guida autonoma, implicano grossi cambiamenti anche nella progettazione dei data center.
La novità più importante è l’annuncio di NVIDIA H100, una nuovissima GPU Tensor Core per accelerare i carichi di lavoro dell’IA. Basata su 4N di TSMC, vanta ben 80 miliardi di transistor e una larghezza di banda di 4,9 TB/s e offre 60 TFLOP di prestazioni FP64.
L’H100 porta con sé la nuova architettura GPU di NVIDIA chiamata Hopper, il successore di Ampere, che sarà alla base della prossima generazione di GPU per data center capace di offrire un salto notevole di prestazioni rispetto al predecessore. Le H100 sono anche le prime schede a supportare la tecnologia PCIe di 5° generazione, le memorie HBM3 (che portano la banda complessiva a 3 TB/s) e la tecnologia NVlink di 4° generazione che permette di connettere fino a 256 schede in serie con una banda 9 volte più ampia rispetto alla generazione precedente.
Parallelamente è stata sviluppata anche una nuova interazione col sistema NVIDIA DGX dedicato all’Intelligenza Artificiale, che racchiude 8 GPU H100. “I nostri nuovi sistemi DGX H100 alimenteranno le fabbriche di intelligenza artificiale aziendale per perfezionare i dati nella nostra risorsa più preziosa: l’intelligenza” ha affermato Huang.
Si possono collegare fino a 32 sistemi DGX (contenenti 256 GPU H100 in totale) creando un “DGX pod” che può raggiungere fino a un EXAFLOP di prestazioni AI. A loro volta, i DGX Pod possono essere connessi tra loro per creare un DGX Superpod che Huan descrive come “la moderna fabbrica di intelligenza artificiale”.
Un esempio è il nuovo supercomputer EOS sviluppato da NVIDIA che conterrà 18 DGX Pod e che, si stima, sarà 4 volte più veloce nell’elaborazione dei processi di intelligenza artificiale rispetto al supercomputer Fugaku (il più veloce al mondo al momento). EOS dovrebbe entrare in funzione entro la fine dell’anno e dovrebbe raggiungere 18,4 esaFLOPS nelle operazioni AI e 275 petaFLOPS nelle operazioni scientifiche tradizionali.
Per evitare i colli di bottiglia della rete, NVIDIA ha combinato la GPU H10 con CX-7 il processore di rete più avanzato.
Grace è la prima CPU per data center di NVIDIA, progettata appositamente per l’IA. Consiste in due CPU connesse tra loro daNVlink-C2C, una tecnologia a bassissima latenza. Il chip ha 144 core Arm v9, una banda di memoria di 1 TB/secondo, e la ram LPDDR5x con ECC.
Verrà rilasciata in due moduli multi-chip (MCM) di Nvidia: Grace Hopper e Grace CPU Superchip.
Il primo combina una CPU Grace e una GPU basata su Hopper, mentre il secondo collega due CPU Grace insieme.
Spectrum-4 con 51.2 Tbps e 100 miliardi di transistor è lo switch più avanzato che esista. Gli hyperscaler trarranno vantaggi in termini di produttività, qualità del servizio, sicurezza e riduzione dei costi.
Anche le librerie dedicate all’AI sono state implementate, da Triton (hyperscale model inference server) a Riva (deep learning per linguaggio), da Maxine (comunicazione e collaborazione) a Merlin (framework per sistemi).
Omniverse, la piattaforma per collegare e creare mondi creativi, team e digital twin, si arricchisce con nuovi tool che rendono più facile la creazione di mondi virtuali, e con esempi pratici di impiego sul campo. Pepsi ha utilizzato Omniverse per creare “digital twins” delle proprie strutture e migliorare la sicurezza e l’efficienza; Amazon lo utilizza per progettare e ottimizzare il proprio centro operativo.
Per venire incontro alle esigenze di designer, creator e ricercatori, NVIDIA ha rilasciato anche Omniverse Cloud grazie al quale in pochi click gli utenti potranno collegarsi e collaborare.
E poi ancora NVIDIA Drive, sistema per la guida autonoma, che verrà implementato a bordo delle automobili Mercedes-Benz a partire dal 2024, e Jaguar Land Rover dal 2025.
Isaac e Metropolis riguardano invece i veicoli autonomi. Il primo è una piattaforma per la robotica, Metropolis è un framework per la trasformazioni dei dati di dispositivi IA e IoT in informazioni utili per la rielaborazione.
Clara, la piattaforma dedicata allo sviluppo di strumenti a favore dell’industria sanitaria (ultrasuoni, video 4k, laser, ecc…).
Come leggete novità e aggiornamenti non sono mancati. Spazio notevole all’Intelligenza Artificiale e a tutto ciò che si porta dietro, in termini di necessità di elaborazione dati, grafica, sistemi di apprendimento.
Dal nostro punto di vista, quelli che ci interessano maggiormente sono le nuove GPU e CPU che non vediamo l’ora di provare.
E voi cosa ne pensate? Avete domande o volete approfondire qualche argomento in particolare?
NVIDIA GTC 2022 – Il keynote del CEO Jensen Huang
Iscriviti COMPILANDO IL FORM
INFORMAZIONI PIÙ PRECISE?
Lascia un tuo recapito e ti ricontattiamo noi.