NVIDIA ha presentato la piattaforma Blackwell per l’IA generativa in tempo reale e il supercomputer DGX SuperPOD al GTC 2024. L’azienda ha inoltre annunciato nuovi prodotti per l’AI, il networking e la simulazione del clima.

Lunedì sera 18 marzo, NVIDIA ha tenuto un’altra edizione del suo evento GTC 2024. Durante la presentazione, l’azienda ha annunciato ulteriori sviluppi in aree quali l’IA generativa e l’Omniverse Cloud. Uno dei punti chiave è la piattaforma NVIDIA Blackwell, che mira a portare l’IA generativa in tempo reale all’elaborazione avanzata di nuova generazione.

NVIDIA Blackwell

NVIDIA ha presentato la sua nuova piattaforma NVIDIA Blackwell, progettata per alimentare la nuova era del computing. Secondo l’azienda, questa piattaforma consente alle organizzazioni di creare ed eseguire AI generative in tempo reale con trilioni di parametri di modelli LLM con un consumo energetico fino a 25 volte inferiore rispetto al suo predecessore.

L’architettura GPU Blackwell è dotata di sei tecnologie per l’accelerazione del calcolo. La prima di queste è il chip più potente al mondo, con 208 miliardi di transistor e produzione nel processo personalizzato 4NP di TSMC. È inoltre dotato del Transformer Engine di seconda generazione, alimentato da un nuovo microtensore con supporto della scalabilità e gestione avanzata della gamma dinamica mediante algoritmi integrati dei framework TensorRT-LLM e NeMo Megatron di NVIDIA.

Un’altra novità è la quinta generazione di NVLink, per accelerare le prestazioni dei modelli di intelligenza artificiale a parametri multipli e della fusione tra esperti. Il throughput bidirezionale raggiunge 1,8 TB/s per GPU. Il quarto punto della lista è il RAS Engine, un motore dedicato all’affidabilità, alla disponibilità e alla facilità di manutenzione.

Secure AI si concentra sull’offerta di funzionalità avanzate di elaborazione riservata per proteggere i dati dei clienti e i modelli AI senza compromettere le prestazioni. Infine, c’è il Decompression Engine, un motore di decompressione che supporta i formati più recenti al fine di accelerare le query di database per generare maggiori prestazioni nella loro analisi e scienza.

NVIDIA GB200 Grace Blackwell

Per il debutto della piattaforma, l’azienda ha presentato il nuovo superchip NVIDIA GB200 Grace Blackwell. Esso collega due GPU NVIDIA B200 Tensor Core alla CPU NVIDIA Grace con una connessione NVLink, per ottenere oltre 900 GB/s con un basso consumo energetico. Il sistema GB200 può anche essere collegato alle piattaforme NVIDIA Quantum-X800 infiniBand e Spectrum-X800, annunciate di recente, per offrire un networking avanzato di oltre 800 Gb/s.

DGX SuperPOD con Blackwell

NVIDIA ha anche presentato il supercomputer AI di nuova generazione. NVIDIA DGX SuperPOD, alimentato dai superchip GB200 Grace Blackwell, è dotato di una nuova architettura su scala rack e di un raffreddamento a liquido ad alta efficienza. Il nuovo DGX SuperPOD è dotato di otto o più sistemi NVIDIA DGX GB200 e offre un supercomputing AI da 11,5 exaflops con precisione FP4 e 240 TB di memoria veloce, che può essere scalato con altri rack.

Ogni sistema DGX GB200 è dotato di 36 superchip NVIDIA GB200, che comprendono 36 CPU NVIDIA Grace e 72 GPU NVIDIA Blackwell. L’intenzione è quella di offrire un aumento delle prestazioni di 30 volte rispetto alle GPU NVIDIA H100 Tensor Core per i carichi di lavoro di inferenza di modelli linguistici di grandi dimensioni.

NVIDIA Quantum-X800 InfiniBand e Spectrum-X800 Ethernet

L’azienda ha annunciato nuovi switch ottimizzati per le infrastrutture di GPU Computing e AI da un trilione di parametri. NVIDIA Quantum-X800 InfiniBand si concentra sull’AI ad alte prestazioni e sulle infrastrutture dedicate, mentre NVIDIA Spectrum-X800 Ethernet si rivolge alle reti ottimizzate per l’AI in ogni data center.

Entrambe sono le prime piattaforme di rete al mondo con capacità di inferenza end-to-end a 800 Gb/s, destinate a superare i limiti delle prestazioni di rete per i carichi di lavoro di calcolo e AI. Le due piattaforme sono inoltre dotate di un software che accelera ulteriormente le applicazioni AI, cloud, elaborazione dati e HPC in tutti i tipi di data center, compresi quelli che già incorporano la nuova linea di prodotti basati sull’architettura NVIDIA Blackwell.

Earth-2

Un altro annuncio dell’evento è stato quello di un digital twin – il nome dato alla rappresentazione virtuale di un oggetto o di un processo fisico in tempo reale – incentrato sulla lotta alle perdite economiche – circa 140 miliardi di dollari – causate dalle condizioni meteorologiche estreme provocate dal cambiamento climatico. Earth-2 si presenta come una piattaforma cloud per la simulazione e la visualizzazione del tempo e del clima su una scala considerata innovativa di 2 km. Permetterà di creare emulazioni alimentate dall’intelligenza artificiale per accelerare la fornitura di simulazioni interattive ad alta risoluzione.

Esempi di applicazioni sono l’atmosfera globale, l’incidenza delle nuvole, i tifoni e le turbolenze. Sarà inoltre possibile aiutare le aziende del settore della tecnologia climatica a fornire avvisi e previsioni aggiornate in pochi secondi. Attualmente, i modelli tradizionali basati su CPU richiedono minuti o ore per lo stesso compito. L’elenco dei primi utilizzatori delle nuove API cloud della piattaforma Earth-2 comprende The Weather Company e la Taiwan Weather Administration.

NVIDIA Omniverse Cloud come API

NVIDIA ha confermato che Omniverse Cloud sarà disponibile sotto forma di API al fine di estendere la portata della piattaforma per la creazione di applicazioni e workflow di digital twin industriali all’intero ecosistema dei produttori di software. L’azienda ha spiegato che le cinque nuove interfacce di programmazione del servizio cloud consentiranno agli sviluppatori di integrare le tecnologie Omniverse direttamente nelle applicazioni software di progettazione.

Il processo può essere applicato anche ai programmi di automazione esistenti, come i gemelli digitali o i flussi di lavoro di simulazione, per testare e convalidare le macchine autonome. Tra gli esempi vi sono i veicoli e i robot autonomi. L’elenco dei produttori di software che adotteranno le API di Omniverse Cloud comprende nomi come Ansys, Cadence, Dassault Systèmes – per il brand EDEXCITEHexagon, Microsoft, Rockwell Automation, Siemens e Trimble.

NVIDIA DRIVE Thor

Per finire, NVIDIA ha annunciato che le principali aziende del settore dei trasporti hanno iniziato ad adottare il computer automobilistico centralizzato NVIDIA DRIVE Thor. Lo strumento alimenterà le flotte commerciali e di consumo di nuova generazione, dalle auto e dai camion con nuove fonti di energia ai robotaxi e ad altri veicoli autonomi.

Sono stati utilizzati marchi come BYD, Hyper, XPENG, Plus, Nuro, Waabi e WeRide. Essi avranno accesso a nuove risorse di intelligenza artificiale generativa attraverso l’architettura Blackwell, poiché il processore AV di nuova generazione farà parte della nuova piattaforma del brand. Il sistema DRIVE Thor è il successore di DRIVE Orin e le sue caratteristiche principali sono la capacità di fornire applicazioni di IA generativa e altre funzionalità dell’abitacolo, mantenendo una guida sicura, altamente automatizzata e autonoma.

Articolo precedenteHonor Band 9 ufficiale: display più grande e tante funzioni
Articolo successivoHonor Magic Flip: in arrivo un nuovo pieghevole compatto