より35%高速
IntelのSapphireRapidsサーバーチップであるXeonPlatinum 8480+ CPUは、 Geekbench5。
IntelのSapphireRapids-SP、Xeon Platinum 8480+ CPU、ベンチマークは35%を示していますIceLakeフラッグシップよりも優れたパフォーマンス
これらは確かに、IntelのSapphire Rapids-SPサーバーCPUの最初のリークされたベンチマークではありませんが、Geekbench 5では、XeonPlatinum8480+が登場するのはこれが初めてです。同じチップは、Intelの第4世代データセンターラインナップの中で最高の製品の1つになり、いくつかの遅延がなければ、AMDのEPYCMilanに対する優れた戦闘員となるはずのいくつかのハイエンド仕様を提供します。 CPUのラインナップは、AMDのEPYCジェノアという形で、より激しいライバルと競争することになります。これは、はるかに多くのコアとスレッドを揺るがします。
IntelCorporationのデータセンターおよびAIグループのエグゼクティブバイスプレジデント兼ゼネラルマネージャーであるサンドラリベラは、5月10日にダラスでIntel Vision 2022がオープンする前に、第4世代Intel Xeonスケーラブルプロセッサ(コード名はSapphire Rapids)を搭載したウェーハを表示します。ハイブリッドイベントでは、インテルのリーダーがシリコン、ソフトウェア、サービス全体の進歩を発表し、インテルがテクノロジーとエコシステムを統合して、現在および将来の顧客のビジネス価値を解き放つ方法を紹介します。 (クレジット:Walden Kirsch/Intel Corporation)
そうは言っても、IntelのSapphire Rapids-SP CPUは、シングルスレッドHPCおよびマルチスレッド(マルチソケット2S +プラットフォーム)で依然としていくつかの重要な位置を占めている可能性があります。 Intelのトップチップの仕様に関する限り、Xeon Platinum 8480+は、GoldenCoveアーキテクチャを利用する56コアと112スレッドを実現します。 IceLakeのフラッグシップであるXeonPlatinum8380は、SunnyCoveアーキテクチャに基づいた40コアと80スレッドを備えていました。 EPYC Milan CPUはすでに64コアと128スレッドというより多くのコア数を揺るがし、Genoaはそれらを最大96コアと192スレッドにブーストします。
CPUは105MBのL3キャッシュと112MBのL2を備えています217MBの合計キャッシュのキャッシュ。比較のために、Intel Xeon Platinum 8380 IceLake-SPチップには110MBの複合キャッシュ(50 MB L2 + 60 MB L3)がありました。これは、キャッシュの量がほぼ2倍に増えることです。ただし、AMDの第3世代EPYCMilanチップは288MBのより高いキャッシュを揺るがし、Milan-Xチップは最大800 MBのキャッシュ(512 MB 3D V-Cache + 288 MB L2 + L3)を揺り動かします。今後のGenoaチップは、非3DV-Cacheで最大480MB、3DV-Cacheフレーバーで最大1248MBのキャッシュを実現する予定です。
クロック速度については、IntelSapphireRapidsです。 Xeon Platinum 8480+CPUは2.0GHzのベースクロックを揺るがし、平均クロック周波数もほぼ同じでした。 Intel Ice Lake-SP Xeon Platinum 8380は、2.3GHzベースと3.4GHzブーストクロックを備えています。最終的な小売りのSapphireRapids-SPXeon Platinum 8480+ CPUは、TDPが350Wの3.0GHzブーストクロックを揺るがすと言われています。
0
7000
14000
21000
28000
35000
42000
Xeon Platinum 8480+(56コア@ 2.0 GHz)Xeon Platinum 8380(40コア@ 2.3 GHz)
0
200
400
600
800
1000
1200
Xeon Platinum 8380(40コア@ 2.3 GHz)Xeon Platinum 8480+(56コア@ 2.0 GHz)
つまり、シングルスレッドテストでベンチマークに到達します。 Ice Lake-SPチップは、15%のクロック速度の利点があるにもかかわらず、Sapphire Rapids-SP CPUよりわずか3%進んでいました。マルチスレッドテストでは、Xeon Platinum 8480+は、コアとスレッドの数で40%のアドバンテージを持ちながら、35%のパフォーマンス向上を実現しました。繰り返しになりますが、これらのコアはより低いクロックレートで実行されていたため、最終的なバリアントは、Ice Lake-SPの前身よりも40〜50%向上すると予想できます。いくつかのEPYCベンチマークをミックスに追加したいのですが、ここでの問題は、XeonPlatinumCPUがWindowsServer2022 Datacenter OSでテストされたのに対し、EPYCスコアの大部分はLinuxを実行しているため、公正な比較にはならないということです。 。
IntelのSapphireRapids-SPXeon Platinum 8480+は、最終的にEPYC Milanチップに近づくか、それを上回る可能性がありますが、Genoa EPYC9000CPUに対抗するチャンスはありません。詳細はこちら。
AMDEPYCジェノアとIntelXeonSapphireRapids-SPサーバーCPUプラットフォーム
<テーブル>サーバーファミリーAMDEPYCGenoaIntelXeonサファイアラピッズ-SPプロセスNode5nmIntel7CPU ArchitectureZen 4Golden Cove Cores9660 Threads192120 L2キャッシュコアあたり1MB(最大96 MB)コアあたり2 MB(最大112 MB)L3キャッシュ384MB105MBメモリサポートDDR5-5200DDR5-4800メモリ容量12TB8TBメモリチャネル12チャネル8チャネルTDP範囲(PL1)320W350W TDP範囲(最大)700W764WソケットサポートLGA 6096’SP5’LGA4677’ソケットP’フラッグシップSKUEPYC9664XeonPlatinum 8480H Launch2H 20222H 2022
ニュースソース:ベンチリーク