サーバー GPU の消費電力は増加するだけ

Giga Computing (Gigabyte) データセンター CPU/GPU アーキテクチャを特徴とするロードマップが HXL.

Giga Computing は、Gigabyte から独立した別個の企業です。同社はエンタープライズ コンピューティング市場を専門としており、最新のデータセンター アーキテクチャに基づく製品をいち早く発表した企業の 1 つです。

本日、新しいロードマップ スライドが公開され、最先端の技術を提供するすべての大手企業の製品が取り上げられました。エンタープライズ機器。ロードマップは、CPU、GPU、および CPU+GPU (一般に APU として知られるもの) に分かれています。ロードマップには、2025 年までの製品が示されています。

CPU/GPU サーバー ロードマップ 2022 ~ 2025、出典: Giga Computing/HXL

Giga Computing は、 2022 年から 270 ~ 280W の CPU に移行し、2025 年末までに 500 ~ 600W に達する予定です。これらのチップには、Intel の今後の Emerald および Granite Rapids CPU シリーズや、AMD の EPYC Turing Zen5 シリーズが含まれるはずです。

同社はまた、PCIe ベースの GPU サーバー ソリューションが 2025 年初頭までに 500W を超えると予想しています。この場合、ロードマップには特定の製品については言及されていませんが、NVIDIA が現在 Blackwell サーバー GPU に取り組んでおり、AMD がその可能性が高いことはわかっています。

興味深いことに、ロードマップには AMD MI300「エクサスケール APU」が記載されていません。これは、同社がすでに 2018 年に発表したデータセンター向けの次世代 AMD アクセラレータです。今年の1月。 NVIDIA Grace/Hopper スーパーチップと同様に、高度なパッケージング (この場合はスタッキング) テクノロジーを通じて CPU と GPU を単一のパッケージに結合します。 Giga Computing によると、NVIDIA Grace Hopper CPU スーパーチップは 1000W に達する可能性があります。

出典: @9550pro

Categories: IT Info