Nvidiaの強力なA100GPU はそのHGXAIスーパーコンピューティングプラットフォームの一部である、カリフォルニアのグラフィックスを処理する巨像本日発表、80 GBのメモリモジュール、400 GのInfinibandネットワーキング、MagnumIOなどの新しいテクノロジーGPUDirectストレージソフトウェアも追加されています。

Nvidia A100 GPU

(画像クレジット:Nvidia)

最近アンペールを動力源とする筋肉を曲げてタイタンVを追い抜いたA100 e 最も強力なGPU OctaneBenchベンチマークでは、2つの形式で提供されます。1つは40GBのHBM2Eで、もう1つは80GBです。より大きなモデルは、世界で最も広いメモリ帯域幅を誇り、1秒あたり2テラバイト以上を転送します。 7nmプロセスで構築され、6912のシェーディングユニット、432のテクスチャマッピングユニット、160のROP、および432のテンソルコアに配置された542億個のトランジスタを取得します。

これらのGPUを結合するスーパーコンピューターの大規模なラック内には、GPUメモリとストレージ間の直接アクセスを可能にすることでレイテンシーを低下させるMagnum IOGPUDirectストレージなどのテクノロジーがあります。最大400Gb/sのInfinibandネットワーキングにより、2,048ポートスイッチあたり最大1.64 Pb/sの帯域幅が可能になり、100万を超えるノードを接続できます。

「HPC革命は学界で始まり、 Nvidiaの創設者兼CEOであるJensenHuangは、次のように述べています。 「主要なダイナミクスは、HPCを業界にとって有用なツールにした、超指数関数的で超ムーアの法則の進歩を推進しています。 NvidiaのHGXプラットフォームは、業界が直面する最も困難な問題に取り組むための比類のない高性能コンピューティングアクセラレーションを研究者に提供します。新しい大型ガスタービンとジェットエンジンを設計する。また、大型ハドロン衝突型加速器などの大規模な素粒子物理学実験からのデータを分析するための計算素粒子物理学用に最適化された、エディンバラ大学の次世代スーパーコンピューターの構築にも使用されます。

Categories: IT Info