Al GTC 2022, NVIDIA annuncia una gamma di prodotti alimentati dalle sue nuovissime GPU Hopper GH100 come DGX Station, DGX SuperPod e diversi acceleratori PCIe H100.

NVIDIA presenta la gamma di GPU Hopper GH100: con acceleratori DGX Station H100, DGX H100, DGX SuperPod H100 e H100 PCIe

La NVIDIA DGX Station H100 è destinata a Mercato dell’intelligenza artificiale, accelerazione delle prestazioni di apprendimento automatico e scienza dei dati per uffici aziendali, strutture di ricerca, laboratori o uffici domestici ovunque. Secondo NVIDIA, la DGX Station H100 è progettata per essere il server più veloce in una scatola dedicata alla ricerca sull’IA.

NVIDIA lancia Grace Hopper e Grace CPU Superchip: CPU da 144 core con memoria fino a 600 GB, 2x Perf/Watt rispetto ai server tradizionali

Specifiche del sistema NVIDIA DGX H100

Con la GPU Hopper, NVIDIA sta rilasciando il suo ultimo sistema DGX H100. Il sistema è dotato di un totale di 8 acceleratori H100 nella configurazione SXM e offre fino a 640 GB di memoria HBM3 e fino a 32 PFLOP di prestazioni di calcolo di picco. Per fare un confronto, il sistema DGX A100 esistente è dotato di 8 GPU A100 con 640 GB di memoria HBM2e e produce solo un massimo di 5 PFLOP di AI e 10 PFLOP di potenza di calcolo INT8.

Esistono anche due piattaforme di supercalcolo che NVIDIA ha annunciato il potenziamento dei propri sistemi DGX H100, DGX POD H100 ed EOS. Il DGX POD offre 1 Exaflop di prestazioni AI, ha 20 TB di memoria HBM3, 192 TFLOP di SHARP In-Network Compute e 70 TB/s di larghezza di banda bidirezionale. Le caratteristiche dello switch DGX POD NVLINK supportano 20,5 TB di memoria HBM3 totale e 786 TB/s di larghezza di banda totale della memoria di sistema.

EOS porta le cose al livello successivo con i suoi 18 PODS DGX H100, con 18 EFLOP FP8, 9 EFLOP di FP16, 275 PFLOP di FP64, 3,7 PFLOP di In-Network Compute e 230 TB/s di larghezza di banda. Il sistema AI è progettato con il nuovo switch Quantum-2 Infiniband che dispone di 57 miliardi di transistor e 32 acceleratori AI su sistemi A100.

Specifiche del sistema NVIDIA DGX Station H100

In arrivo al specifiche, NVIDIA DGX Station H100 è alimentata da un totale di quattro GPU H100 Tensor Core.

Un’interfaccia utente 4.1 è ora disponibile su Galaxy A52 5G, Galaxy S10, Galaxy Note 10, Galaxy Z Fold 2, e Galaxy Z Flip

Il sistema stesso ospita le CPU Intel di quinta generazione con supporto PCIe Gen 5 completo. L’output del display è fornito tramite una scheda adattatore display DGX discreta che offre 4 uscite DisplayPort con supporto per una risoluzione fino a 4K. L’AIC dispone di una propria soluzione di raffreddamento attivo.

Parlando della soluzione di raffreddamento, la DGX Station H100 ospita le GPU H100 sul lato posteriore dello chassis. Tutte e quattro le GPU e la CPU sono integrate da un sistema di raffreddamento a refrigerante che è estremamente silenzioso ed esente da manutenzione. Il compressore per il dispositivo di raffreddamento si trova all’interno dello chassis DGX.

Comunicato stampa: NVIDIA ha annunciato oggi il sistema NVIDIA DGX di quarta generazione, la prima piattaforma AI al mondo ad essere costruita con nuove NVIDIA H100 GPU Tensor Core.

DGX H100 i sistemi offrono la scalabilità richiesta per soddisfare gli enormi requisiti di elaborazione di grandi modelli linguistici, sistemi di raccomandazione, ricerca sanitaria e scienze del clima. Con otto GPU NVIDIA H100 per sistema, collegate come una tramite NVIDIA NVLink, ogni DGX H100 fornisce 32 petaflop di prestazioni AI con la nuova precisione FP8, 6 volte in più rispetto alla generazione precedente.

I sistemi DGX H100 sono gli elementi costitutivi delle piattaforme di infrastruttura AI di prossima generazione NVIDIA DGX POD e NVIDIA DGX SuperPOD . L’ultima architettura DGX SuperPOD presenta un nuovo NVIDIA NVLink Switch System in grado di connettere fino a 32 nodi con un totale di 256 GPU H100.

Annunciando NVIDIA Eos — Il supercomputer AI più veloce del mondo
NVIDIA sarà la prima a costruire un SuperPOD DGX con la nuova rivoluzionaria architettura AI per potenziare il lavoro dei ricercatori NVIDIA che promuovono la scienza del clima, la biologia digitale e il futuro dell’IA.

Si prevede che il suo supercomputer”Eos”sarà il sistema di intelligenza artificiale più veloce del mondo dopo l’inizio delle operazioni entro la fine dell’anno, con un totale di 576 sistemi DGX H100 con 4.608 GPU DGX H100.

Si prevede che NVIDIA Eos fornirà 18,4 exaflop di prestazioni di elaborazione dell’IA, un’elaborazione dell’IA 4 volte più veloce rispetto al supercomputer Fugaku in Giappone, che è attualmente il sistema più veloce del mondo. Per il calcolo scientifico tradizionale, Eos dovrebbe fornire 275 petaflop di prestazioni.

Eos fungerà da modello per l’infrastruttura AI avanzata di NVIDIA, nonché dei suoi partner OEM e cloud.

L’IA aziendale è facilmente scalabile con i sistemi DGX H100, DGX POD e DGX SuperPOD
I sistemi DGX H100 sono facilmente scalabili per soddisfare le esigenze dell’IA man mano che le aziende crescono dai progetti iniziali alle implementazioni su larga scala.

Oltre a otto GPU H100 con un totale di 640 miliardi di transistor, ogni sistema DGX H100 include due DPU NVIDIA BlueField-3 per scaricare, accelerare e isolare reti e storage avanzati e servizi di sicurezza.

Otto NVIDIA ConnectX-7 Rete Quantum-2 InfiniBand forniscono 400 gigabit velocità effettiva al secondo per connettersi con l’elaborazione e l’archiviazione: il doppio della velocità del sistema di generazione precedente. E un NVLink di quarta generazione, combinato con NVSwitch, fornisce 900 gigabyte al secondo di connettività tra ogni GPU in ogni sistema DGX H100, 1,5 volte in più rispetto alla generazione precedente.

I sistemi DGX H100 utilizzano due CPU x86 e possono essere combinato con il networking e lo storage NVIDIA dei partner NVIDIA per creare DGX POD flessibili per l’elaborazione AI di qualsiasi dimensione.

DGX SuperPOD fornisce un centro di eccellenza per l’IA aziendale scalabile con i sistemi DGX H100. I nodi DGX H100 e le GPU H100 in un DGX SuperPOD sono collegati da un sistema di switch NVLink e NVIDIA Quantum-2 InfiniBand fornendo un totale di 70 terabyte/sec di larghezza di banda, 11 volte superiore rispetto alla generazione precedente. Lo storage dei partner NVIDIA sarà testato e certificato per soddisfare le esigenze del computing DGX SuperPOD AI.

È possibile combinare più unità DGX SuperPOD per fornire le prestazioni AI necessarie per sviluppare modelli di grandi dimensioni in settori come quello automobilistico e sanitario , produzione, comunicazioni, vendita al dettaglio e altro ancora.

Disponibilità
I sistemi NVIDIA DGX H100, DGX POD e DGX SuperPOD saranno disponibili dai partner globali di NVIDIA a partire dal terzo trimestre.

Categories: IT Info