NVIDIA al lavoro su H100 da 120 GB

Una misteriosa scheda grafica basata su PCIe chiamata G100 da 120 GB è stata avvistata in esecuzione insieme a RTX 3090 Ti e RTX 4090 ES.

Alimentata dal processore GH100, la variante da 120 GB è veloce quanto la variante SXM, secondo il rapporto di s-ss affermazioni. Uno screenshot pubblicato dal sito Web mostra un presunto processore H100 con 120 GB di memoria HBM2e, tuttavia, a differenza del modello da 80 GB esistente, questa variante ha aumentato la larghezza di banda a 3 TB/s.

Tale larghezza di banda è disponibile solo con l’SXM variante (connettore mezzanine proprietario NVIDIA) che è sbloccato per una maggiore potenza, ma questo modello utilizza anche HBM3. Vale la pena notare che per supportare 120 GB di capacità, ciascuno dei cinque stack di lavoro dovrebbe essere 24 GB.

Inoltre, secondo quanto riferito, l’H100 PCIe da 120 GB ha le stesse specifiche della GPU della variante SXM, il che in questo caso significa 16896 CUDA Core e 528 tensori.

Presunto PCIe NVIDIA H100 da 120 GB, Fonte: S-SS

La cosa interessante di questa perdita è che il campione di PCIe H100 da 120 GB è stato elencato in Windows Device Manager insieme a”RTX ADLCE Engineering Sample’. L’ADLCE ovviamente sta per Ada Lovelace, ed è un’unità di preproduzione con TDP limitato a 350 W (le specifiche finali sono 450 W). Di conseguenza, si dice che le prestazioni di calcolo a precisione singola siano limitate a 60 TFLOP (l’unità di vendita al dettaglio ha 82 TFLOPS).

Specifiche GPU per data center NVIDIAVideoCardz.comNVIDIA H100 SXMNVIDIA H100 120 GB PCIeNVIDIA H100 80 GB PCIePictureGPUGH100GH100GH100Transistor80B80B80BDie Size814 mm²814 mm²814 mm²ArchitectureHopperHopperHopperFabrication NodeTSMC 4N TSMC 4N Cluster TSMC 4NGPU132132114CUDA Core168961689614592L2 Cache50MB50MB50MBtensor Core528528456Memory Bus5120-bit5120-bit5120-bit Dimensione memoria80 GB HBM3120 GB HBM2e80 GB HBM2eTDP700WTBC350WInterfaceSXM5PCIe Gen5PCIe Gen5Anno di lancio20222022 >2022

Fonte: s-ss tramite MegaSizeGP U

Categories: IT Info