Nvidiaは最近、80GBの
6912CUDAコアと80GBのHBM2Eを備えたGA100GPUに基づくNvidiaのA100-PCIeアクセラレータ
Nvidiaは、A100-PCIe 80GB HBM2Eコンピューティングカードを正式に発表していませんが、公式ドキュメントが
Nvidia独自のSXMコンピューティングGPUフォームファクターには、通常のPCIeカードに比べていくつかの利点があります。 Nvidiaの最新のA100-SXM4モジュールは、最大400Wの最大熱設計電力(TDP)をサポートします(40GBバージョンと80GBバージョンの両方)。このようなモジュールに必要な量の電力を供給しやすく、冷却しやすいためです(たとえば、最新のDGXステーションA100で冷媒冷却システムを使用します。対照的に、NvidiaのA100PCIeカードの定格は最大250Wです。一方、これらはラックサーバー内だけでなくハイエンドワークステーションでも使用できます。
Nvidiaのクラウドデータセンターの顧客は好むようですカード上のSXM4モジュール。その結果、Nvidiaは昨年最初にA100-SXM4 40GB HBM2Eモジュール(1.6TB/sの帯域幅)を発売し、数か月後にPCIeカードバージョンを発表しました。同社はまた、昨年11月にA100-SXM4 80GB HBM2Eモジュール(より高速なHBM2Eを搭載)を最初に導入しましたが、ごく最近になって出荷を開始しました。