Nella sua presentazione durante la GTC 2022, NVIDIA ha presentato una serie di novità nel mercato dell’Intelligenza Artificiale. I punti principali includono la nuova architettura Hopper, più GPU per i data center e persino un supercomputer aggiornato.

La GPU Hopper H100 porta una nuova architettura per succedere all’Ampere A100 con nuove funzionalità. Ora, il componente è stato prodotto con il processo a 4 nm di TSMC, come il chip più avanzato. C’è anche l’uso dell’IA e dei modelli di sicurezza dei dati. Il chip raggiunge i 4.000 TFLOPS FP8, sei volte di più rispetto al suo predecessore.

Dispone inoltre di PCI Gen5 fino a 128 GB/s – 2 volte l’A100 – e NVLink di quarta generazione fino a 900 GB/s – un miglioramento del 50% rispetto alla generazione precedente. Il suo TDP raggiunge i 700 W.

Tra le caratteristiche principali della tecnologia Hopper c’è la capacità di lavorare a 16 o 8 bit, senza alcuna perdita di potenza di calcolo. Ha anche la riservatezza dei dati, quindi non ci sono problemi con i dati lavorati. Inoltre, c’è la GPU Multi-Instance (MIG), per creare sette divisioni a secco utilizzando una singola GPU.

Un altro annuncio riguarda NVIDIA NVLink Switch. Arriva progettato per la connettività NVLink con più di un nodo. La piattaforma può essere scalata fino a 256 GPU, un anticipo di 32 volte. Il network computing raggiunge i 192 TFLOPS, con una larghezza di banda in due sezioni di 70,4 TB/s.

NVIDIA ha anche introdotto il sistema NVIDIA DGX H100, che dispone di otto GPU H100 per raggiungere 32 PFLOPS AI e si possono ancora combinare 32 di questi sistemi tramite DGX SuperPOD.

La combinazione di DGX SuperPOD con 576 DGX H100, 500 switch Quantum-2 IB e 360 ​​switch NVLink forma il nuovo supercomputer NVIDIA EOS. È considerata l’infrastruttura di intelligenza artificiale più avanzata al mondo. In tutto, sono 18 EFLOPS dell’8PQ, un aumento di sei volte.

La società ha anche annunciato l’acceleratore H100 CNX, con l’obiettivo di fornire un’interfaccia GPU ad alta velocità ai server standard. L’hardware si basa su un server tradizionale, accompagnato da ottimizzazioni per il calcolo accelerato.

Il superchip GPU Grace è un altro marchio ufficiale. In tutto ci sono 144 core di elaborazione, con una memoria di 1 TB. Previsto per essere disponibile nella prima metà del 2023, il componente può essere combinato con un massimo di otto Hopper tramite lo switch NVLink per rendere il data center ancora più potente.

Omniverse

Con l’idea di creare un universo digitale che funge da secondo mondo per le persone, NVIDIA è stata in prima linea nello sviluppo di tecnologie per questo tipo di mondo, che l’azienda chiama Omniverse.

A tal fine, l’azienda ha lavorato su un cloud per ospitare servizi che consentono di portare una collaborazione progettuale a qualsiasi artista, su qualsiasi dispositivo, indipendentemente dalla posizione. Questo ambiente consentirà ai progettisti di unirsi in scenari condivisi, indipendentemente dall’hardware utilizzato.

All’interno di questo concept, NVIDIA ha anche presentato OVX, un sistema di elaborazione per Omniverse, scalabile per il data center, con un totale di otto GPU NVIDIA A40, tre NIC NVIDIA ConnectX-6 Dx, due Intel Xeon Platinum 8362 e 16 TB NVMe.

Iperione 9

Uno dei segmenti che ha attirato maggiormente l’attenzione del mercato, il settore automobilistico ha avuto spazio tra gli annunci di NVIDIA. La società ha annunciato la piattaforma di riferimento audio e video chiamata Hyperion 9.

Ti consente di mappare aree, identificare tracce, edifici e altre auto in movimento, per formare un sistema completamente autonomo per i veicoli.

La tecnologia embedded del componente consiste nell’utilizzo di sensori LIDAR e RADAR, oltre a generare – tramite l’Intelligenza Artificiale – scenari avversi, al fine di prevedere qualsiasi situazione di rischio durante l’applicazione pratica.

Articolo precedenteRazer annuncia controller Xbox e la base di ricarica ispirati a Captain America
Articolo successivoSamsung Exynos 2200 il peggiore degli ultimi anni