Nvidiaは最近、80GBの HBM2E 標準のフルレングス、フルハイト(FLFH)カードフォームファクターのメモリ。つまり、この獣のようなGPUはPCIe スロットは「通常の」GPUと同じです。 A100やV100などのNvidiaのコンピューティングGPUは、主にクラウドデータセンターのサーバーを対象としているため、Nvidiaは通常のPCIeバージョンよりもSXMバージョン(マザーボードにマウント)を優先します。ただし、これは、同社が通常のPCIeカードフォームファクターに最先端のGPUを備えていないことを意味するものではありません。

6912CUDAコアと80GBのHBM2Eを備えたGA100GPUに基づくNvidiaのA100-PCIeアクセラレータ ECCメモリ(2TB/秒の帯域幅を備えています)は、少なくともコンピューティング機能(バージョン8.0)と仮想化に関しては、80GBのメモリを備えた同社のA100-SXM4アクセラレータと同じ能力を備えています。/instance機能(最大7つのインスタンス)が関係します。もちろん、電力制限に関する限り、違いはあります。

Nvidiaは、A100-PCIe 80GB HBM2Eコンピューティングカードを正式に発表していませんが、公式ドキュメント VideoC ardz 、今後数か月以内に発売する予定です。 A100-PCIe 80GB HBM2Eコンピューティングカードはまだ発売されていないため、実際の価格を知ることは不可能です。 CDW のパートナーは、40GBのメモリを搭載したA100 PCIeカードを15,849ドルから27,113ドルで販売しています。したがって、80GBバージョンの方がそれ以上の費用がかかることは明らかです。

(画像クレジット:Nvidia)

Nvidia独自のSXMコンピューティングGPUフォームファクターには、通常のPCIeカードに比べていくつかの利点があります。 Nvidiaの最新のA100-SXM4モジュールは、最大400Wの最大熱設計電力(TDP)をサポートします(40GBバージョンと80GBバージョンの両方)。このようなモジュールに必要な量の電力を供給しやすく、冷却しやすいためです(たとえば、最新のDGXステーションA100で冷媒冷却システムを使用します。対照的に、NvidiaのA100PCIeカードの定格は最大250Wです。一方、これらはラックサーバー内だけでなくハイエンドワークステーションでも使用できます。

(画像クレジット:Nvidia)

Nvidiaのクラウドデータセンターの顧客は好むようですカード上のSXM4モジュール。その結果、Nvidiaは昨年最初にA100-SXM4 40GB HBM2Eモジュール(1.6TB/sの帯域幅)を発売し、数か月後にPCIeカードバージョンを発表しました。同社はまた、昨年11月にA100-SXM4 80GB HBM2Eモジュール(より高速なHBM2Eを搭載)を最初に導入しましたが、ごく最近になって出荷を開始しました。

Categories: IT Info