Acelerador PCIe NVIDIA H100 de 80 GB com GPU Hopper custa mais de US$ 30.000 no Japão Este é o segundo acelerador que foi listado junto com seu preço no mercado japonês, sendo o primeiro o AMD MI210 PCIe, que também foi listado há poucos dias. NVIDIA H100 80 GB PCIe Accelerator With GPU Hopper é listada no Japão por um preço insano superior a US$ 30.000 Ao contrário da configuração H100 SXM5, o H100 PCIe oferece especificações reduzidas, apresentando 114 SMs habilitados dos 144 SMs completos da GPU GH100 e 132 SMs no H100 SXM. O chip como tal oferece 3200 FP8, 1600 TF16, 800 FP32 e 48 TFLOPs de potência de computação FP64. Ele também possui 456 unidades de tensor e textura. NVIDIA lança aceleradores PCIe Hopper GH100 Powered DGX H100, DGX Pod H100, H100Devido à sua potência de computação de pico mais baixa, o PCIe H100 deve opera em clocks mais baixos e, como tal, apresenta um TDP de 350W versus o duplo TDP de 700W da variante SXM5. Mas a placa PCIe manterá sua memória de 80 GB em uma interface de barramento de 5120 bits, mas na variação HBM2e (>2 TB/s de largura de banda). De acordo com gdm-or-jp, uma empresa de distribuição japonesa, gdep-co-jp, listou o acelerador NVIDIA H100 80 GB PCIe com um preço de ¥ 4.313.000 (US$ 33.120) e um custo total de ¥ 4.745.950, incluindo impostos sobre vendas que se convertem em US$ 36.445. Espera-se que o acelerador seja lançado no segundo semestre de 2022 e virá na variante padrão com refrigeração passiva de slot duplo. Também é afirmado que o distribuidor fornecerá pontes NVLINK gratuitamente para aqueles que comprarem vários cartões, mas poderão enviar em uma data posterior. Agora comparado ao AMD Instinct MI210, que custa cerca de US$ 16.500 no mesmo mercado, o NVIDIA H100 é mais que o dobro do custo. A oferta da NVIDIA possui alguns números de desempenho de GPU realmente altos em comparação com o acelerador AMD HPC com 50W a mais. Os TFLOPs FP32 sem tensor para o H100 são classificados em 48 TFLOPs, enquanto o MI210 tem um poder de computação FP32 com classificação de pico de 45,3 TFLOPs. Com operações de esparsidade e tensor, o H100 pode produzir até 800 TFLOPs de potência FP32. O H100 também possui capacidades de memória maiores de 80 GB versus os 64 GB do MI210. Pelo que parece, a NVIDIA está cobrando mais caro por seus recursos de IA/ML mais altos. Especificações Tesla A100 baseadas em GPU NVIDIA Ampere GA100: Placa gráfica NVIDIA TeslaNVIDIA H100 (SMX5) NVIDIA H100 (PCIe)NVIDIA A100 (SXM4)NVIDIA A100 (PCIe4)Tesla V100S (PCIe)Tesla V100 (SXM2)Tesla P100 (SXM2)Tesla P100(PCI-Express)Tesla M40(PCI-Express) Tesla K40(PCI-Express) GPUGH100 (Hopper)GH100 (Hopper)GA100 (Ampere)GA100 (Ampere)GV100 (Volta)GV100 (Volta)GP100 (Pascal)GP100 (Pascal)GM200 (Maxwell)GK110 (Kepler) processo Node4nm4nm7nm7nm12nm12nm16nm16nm28nm28nm Transistors80 Billion80 Billion54.2 Billion54.2 Billion21.1 Billion21.1 Billion15.3 Billion15.3 bilhões8 Billion7.1 bilhões GPU Die Size814mm2814mm2826mm2826mm2815mm2815mm2610 mm2610 MM2601 mm2551 mm2 SMs132114108108808056562415 TPCs66575454404028282415 FP32 CUDA núcleos por SM128128646464646464128192 FP64 CUDA Cores/SM128128323232323232464 FP32 CUDA Cores168961459269126912512051203584358430722880 FP64 Núcleos CUDA16 8961459234563456256025601792179296960 Tensor Cores528456432432640640N/AN/AN/AN/A textura Units528456432432320320224224192240 impulso ClockTBDTBD1410 MHz1410 MHz1601 MHz1530 TOPs MHz1480 MHz1329MHz1114 MHz875 MHz (DNN/AI) 2000 TOPs 4000 TOPs TOPs1600 3200 TOPs TOPs1248 2496 TOPs com tampos Sparsity1248 2496 TOPs com Sparsity130 TOPs125 TOPsN/AN/AN/AN/A FP16 Compute2000 TFLOPs1600 TFLOPs312 TFLOPs624 TFLOPs com Sparsity312 TFLOPs624 TFLOPs com Sparsity32.8 TFLOPs30.4 TFLOPs21.2 TFLOPs18.7 AN/A FP32 Compute1000 TFLOPs800 TFLOPs156 TFLOPs(19,5 TFLOPs padrão)156 TFLOPs(19,5 TFLOPs padrão)16,4 TFLOPs15,7 TFLOPs10,6 TFLOPs10,0 TFLOPs6,8 TFLOPs5,04 TFLOPs19,54 TFLOPs FP64 Compute60 TFLOPs (9,7 TFLOPs padrão)19,5 TFLOPs(9,7 TFLOPs padrão)8,2 TFLOPs7,80 TFLOPs5,30 TFLOPs4,7 TFLOPs0,2 TFLOPs1,68 TFLOPs Interface de memória5120 bits HBM35120 bits HBM2e6144 bits HBM2e6144 bits HBM2e4096-bit HBM24096 bits HBM24096 bits HBM24096 bits HBM2384 bits GDDR5384-bit GDDR5 Memory SizeAté 80 GB HBM3 @ 3,0 GbpsAté 80 GB HBM2e @ 2,0 GbpsAté 40 GB HBM2 @ 1,6 TB/sAté 80 GB HBM2 @ 1,6 TB/sAté 40 GB HBM2 @ 1,6 TB/s Até 80 GB HBM2 @ 2,0 TB/s16 GB HBM2 @ 1134 GB/s16 GB HBM2 @ 900 GB/s16 GB HBM2 @ 732 GB/s16 GB HBM2 @ 732 GB/s12 GB HBM2 @ 549 GB/s24 GB GDDR5 @ 288 GB/s12 GB GDDR5 @ 288 GB/s L2 cache Size51200 KB51200 KB40960 KB40960 KB6144 KB6144 KB4096 KB4096 KB3072 KB1536 KB TDP700W350W400W250W250W300W300W250W250W235W

o NVIDIA anunciou recentemente H100 80 GB PCIe acelerador baseado no Hopper A arquitetura de GPU foi listada para venda no Japão. Este é o segundo acelerador que foi listado junto com seu preço no mercado japonês, sendo o primeiro Read more…