Die letzte Sapphire Rapids-SP Xeon-CPU der 4 Rechen-und HBM2e-Kacheln. (Image Credits: CNET)

Intel muss noch eine richtige Roadmap für seine Next-Gen-Xeon-CPU-Roadmap bekannt geben und obwohl sie ihre Next-Gen-Produkte skizziert haben, wissen wir nicht viel, was AMD angeboten hat erste Zahlen zu ihrem EPYC 5nm-Lineup. Also hat The Next Platform mit Hilfe ihrer Quellen und ein wenig Spekulation ihre eigene Roadmap erstellt, die Intels Xeon-Familie bis Diamond Rapids abdeckt.

Intel Xeon-CPU-Gerüchte der nächsten Generation Talk Emerald Rapids, Granite Rapids & Diamond Rapids: Bis zu 144 Lion Cove-Kerne bis 2025

Als Vorsichtshinweis gelten die von TheNextPlatform sind größtenteils Schätzungen, die auf Spekulationen und Gerüchten sowie Hinweisen basieren aus ihren Quellen. Dies sind keineswegs Spezifikationen, die von Intel bestätigt wurden, also nehmen Sie sie mit einem Körnchen Salz. Sie geben uns jedoch einen Einblick, wohin Intel mit seinen Aufstellungen der nächsten Generation gehen könnte.

Intel wird groß und will für 20 Milliarden US-Dollar die größte Chipfabrik der Welt bauen

Generations-Roadmap der Intel Xeon CPU-Familie (geschätzt/Danksagungen: Die nächste Plattform):

Generationaler IPC-Anstieg der Intel Xeon CPU-Familie (geschätzt/Danksagungen: Die nächste Plattform):

strong>

Intel Sapphire Rapids-SP Xeon-CPU-Familie der 4. Generation

Die Intel Sapphire Rapids-SP Xeon-CPUs werden die ersten sein, die eine Multi-Fliesen-Chiplet-Design, wie wir es hier beschrieben haben. Das SOC wird die neueste Kernarchitektur von Golden Cove enthalten, die auch die Alder Lake-Reihe antreiben wird. Das blaue Team plant, maximal 56 Kerne und 112 Threads mit bis zu 350 W TDP anzubieten. AMD hingegen wird mit seinen EPYC Genoa Prozessoren bis zu 96 Kerne und 192 Threads bei bis zu 400W TDP anbieten. AMD hätte auch einen großen Vorteil, wenn es um Cache-Größen, IO-Fähigkeiten und mehr geht (höhere PCIe-Lanes, höhere DDR5-Kapazitäten, höherer L3-Cache).

Intels Flaggschiff-ARC-Alchemist-Gaming-Grafikkarte mit 32 Xe Kerne entdeckt: Auf Augenhöhe mit NVIDIA RTX 3070 Ti, bis zu 2,1 GHz Taktung

Der Sapphire Rapids-SP wird in zwei Paketvarianten erhältlich sein, einer Standard-und einer HBM-Konfiguration. Die Standardvariante wird ein Chiplet-Design aufweisen, das aus vier XCC-Dies besteht, die eine Die-Größe von etwa 400 mm2 haben werden. Dies ist die Die-Größe für einen einzelnen XCC-Die und es werden insgesamt vier auf dem oberen Sapphire Rapids-SP Xeon-Chip vorhanden sein. Jeder Chip wird über EMIB verbunden, das eine Rastergröße von 55 u und einen Kernabstand von 100 u hat.

Der Standardchip Sapphire Rapids-SP Xeon wird 10 EMIB-Verbindungen aufweisen und das gesamte Paket wird gewaltig sein 4446 mm2. Beim Übergang zur HBM-Variante erhalten wir eine erhöhte Anzahl von Verbindungen, die bei 14 liegen und benötigt werden, um den HBM2E-Speicher mit den Kernen zu verbinden.

Die vier HBM2E-Speicherpakete werden also 8-Hi-Stacks aufweisen Intel strebt mindestens 16 GB HBM2E-Speicher pro Stack für insgesamt 64 GB im gesamten Sapphire Rapids-SP-Paket an. Apropos Paket: Die HBM-Variante misst wahnsinnige 5700 mm2 oder ist 28 % größer als die Standardvariante. Im Vergleich zu den kürzlich durchgesickerten EPYC-Genoa-Zahlen würde das HBM2E-Paket für Sapphire Rapids-SP 5 % größer ausfallen, während das Standardpaket 22 % kleiner ausfällt.

Intel Sapphire Rapids-SP Xeon (Standardpaket)- 4446 mm2 Intel Sapphire Rapids-SP Xeon (HBM2E-Paket)- 5700 mm2 AMD EPYC Genoa (12 CCD-Paket)- 5428 mm2

Laut TheNextPlatform ist die Top-SKU wird voraussichtlich bis zu 2,3 ​​GHz Basistakt, 4 TB DDR5-Speicherkapazitätsunterstützung, 80 PCIe Gen 5.0-Lanes und eine Spitzenleistung von 350 W bieten. Die Sapphire Rapids-SP Xeon-Reihe würde eine Leistungssteigerung von bis zu 66 % gegenüber Ice Lake-SP-Chips und eine Leistungs-/Preisverbesserung von 25,9 % bieten.

Intel gibt außerdem an, dass die EMIB-Verbindung die doppelte Bandbreite bietet Dichteverbesserung und 4-mal bessere Energieeffizienz im Vergleich zu Standardgehäusedesigns. Interessanterweise nennt Intel die neueste Xeon-Produktreihe logisch monolithisch, was bedeutet, dass sie sich auf die Verbindung beziehen, die die gleiche Funktionalität wie ein Einzelchip bietet, aber technisch gesehen gibt es vier Chiplets, die miteinander verbunden werden. Sie können die vollständigen Details zu den standardmäßigen Sapphire Rapids-SP Xeon-CPUs mit 56 Kernen und 112 Threads hier lesen.

AMD hat mit seinen Zen-betriebenen EPYC-CPUs im Serversegment wirklich das Blatt gewendet, aber es sieht so aus Intel plant mit seinen kommenden Xeon-CPU-Familien ein Wiederaufleben. Die erste seiner Kurskorrekturen wird Emerald Rapids sein, das voraussichtlich im ersten Quartal 2023 auf den Markt kommen wird.

Intel Emerald Rapids-SP Xeon-CPU-Familie der 5. Generation

Intels Emerald Rapids-SP Xeon-CPU-Familie wird voraussichtlich auf einem ausgereiften „Intel 7“-Knoten basieren. Sie können es sich als’Intel 7′-Knoten der 2. Generation vorstellen, was zu einer etwas höheren Effizienz führen würde.

Emerald Rapids wird voraussichtlich die Raptor Cove-Kernarchitektur verwenden, die eine optimierte Variante des Golden ist Cove-Kern, der 5-10 % IPC-Verbesserung gegenüber Golden Cove-Kernen liefert. Es wird auch bis zu 64 Kerne und 128 Threads packen, was eine kleine Kernerhöhung gegenüber den 56 Kernen und 112 Threads der Sapphire Rapids-Chips ist.

Der obere Teil wird voraussichtlich bis zu 2,6 GHz Basistakt bieten , 120 MB L3-Cache, Unterstützung für bis zu DDR5-5600-Speicher (bis zu 4 TB) und eine leichte Erhöhung der TDP auf 375 W. Es wird erwartet, dass die Leistung gegenüber Sapphire Rapids um 39,5 % und die Leistung/der Preis gegenüber Sapphire Rapids um 28,3 % steigen. Aber der größte Teil der Leistungssteigerung wird durch Takt-und Prozessoptimierungen auf dem verbesserten Intel 7 (10ESF+)-Knoten erfolgen.

Es wird berichtet, dass bis Intel die Emerald Rapids-SP Xeon-CPUs veröffentlicht, AMD dies tun wird haben bereits ihre Zen 4C-betriebenen EPYC Bergamo-Chips herausgebracht, sodass die Xeon-Reihe möglicherweise zu klein und zu spät ist, da nur Intels fortschrittliche Befehlssätze sie in Nischen-Workloads unterstützen. Eine gute Sache für Emerald Rapids wäre, dass es mit der Eagle Stream-Plattform (LGA 4677) kompatibel bleibt und erweiterte PCIe-Lanes von bis zu 80 (Gen 5) und schnellere DDR5-5600-Speichergeschwindigkeiten bietet.

Intel Granite Rapids-SP Xeon-CPU-Familie der 6. Generation

Mit dem Übergang zu Granite Rapids-SP beginnt Intel wirklich, einige große Änderungen an seiner Aufstellung vorzunehmen. Bis jetzt hat Intel bestätigt, dass seine Granite Rapids-SP Xeon-CPUs auf dem „Intel 4“-Prozessknoten (ehemals 7-nm-EUV) basieren werden, aber laut den durchgesickerten Informationen bewegt sich die Platzierung für Granite Rapids auf Roadmaps, so wir Wann die Chips tatsächlich auf den Markt kommen, ist noch nicht sicher. Eine Möglichkeit ist irgendwann zwischen 2023 und 2024, da Emerald Rapids als Zwischenlösung und nicht als richtiger Ersatz für die Xeon-Familie dienen wird.

Es wird angegeben, dass Granite Rapids-SP Xeon-Chips die Kernarchitektur von Redwood Cove nutzen werden und verfügen über eine erhöhte Kernanzahl, obwohl die genaue Anzahl nicht angegeben ist. Intel hat während seiner „Accelerated“-Keynote einen allgemeinen Überblick über seine Granite Rapids-SP-CPU gegeben, die anscheinend mehrere Chips in einem einzigen SOC über EMIB enthält. Wir können HBM-Pakete zusammen mit Rambo-Cache-Paketen mit hoher Bandbreite sehen. Die Compute-Kachel scheint aus 60 Kernen pro Chip zu bestehen, was insgesamt 120 Kernen entspricht, aber wir sollten damit rechnen, dass einige dieser Kerne deaktiviert werden, um bessere Erträge auf dem neuen Intel 4-Prozessknoten zu erzielen.

AMD wird die Kernanzahl seiner eigenen Zen 4C EPYC-Reihe mit Bergamo erhöhen und bis zu 128 Kerne und 256 Threads herausbringen, sodass sie trotz der Verdopplung der Kernanzahl durch Intel möglicherweise immer noch nicht in der Lage sind, mit AMDs disruptivem Multi-Threaded und Multi-Threading mitzuhalten. Kern führen. Aber in Bezug auf IPC könnte Intel hier anfangen, sich AMDs Zen-Architektur im Serversegment und wieder im Spiel anzunähern. Die CPU soll über bis zu 128 PCIe-Gen-6.0-Lanes und eine TDP von bis zu 400 W verfügen. Die CPUs können auch bis zu 12-Kanal-DDR5-Speicher mit Geschwindigkeiten von bis zu DDR5-6400 nutzen. Die Leistungssteigerung gegenüber Emerald Rapids wird sich aufgrund der doppelten Kernanzahl und einer verbesserten Kernarchitektur fast verdoppeln, während die Gesamtleistung/der Preis voraussichtlich um 50 % steigen werden.

Eine interessante Funktion, die von TheNextPlatform erwähnt wird, ist das Starten Granite Rapids, Intel Xeon-CPUs werden die neuesten AVX-1024/FMA3-Vektor-Engines übernehmen, um die Leistung bei einer Vielzahl von Workloads zu steigern. Das würde jedoch bedeuten, dass die Leistungszahlen mit diesen Anweisungen enorm steigen werden. Die Granite Rapids und die zukünftige Generation von Xeon-CPUs werden mit einer neuen „Mountain Stream“-Plattform kompatibel sein.

Intel Diamond Rapids-SP Xeon-CPU-Familie der 7. Generation

Come Diamond Rapids-SP und Intel könnten endlich ihren großen Sieg gegen AMD seit ihrer ersten EPYC-Einführung im Jahr 2017 haben. Diamond Rapids Xeon-CPUs werden im Leak als „The Big One“ angepriesen und sollen bis 2025 auf den Markt kommen mit einer radikal neuen Architektur, die sich gegen Zen 5 positioniert. Bisher sind keine Details darüber verfügbar, welche Architektur oder Kernanzahl die neuen Chips bieten werden, aber sie werden Kompatibilität mit denselben Birch Stream-und Mountain Stream-Plattformen bieten, die auch Granite Rapids-SP-Chips unterstützen werden.

Die Xeon-CPUs der 7. Generation von Diamond Rapids werden voraussichtlich über die verbesserten Lion Cove-Kerne auf dem Intel 3 (5 nm)-Prozessknoten verfügen und bis zu 144 Kerne und 288 Threads bieten. Die Taktraten werden schrittweise von 2,5 auf 2,7 GHz (vorläufig) angehoben. Was die IPC-Verbesserung betrifft, so wird erwartet, dass die Chips von Diamond Rapids bis zu 39 % Auftrieb gegenüber Granite Rapids bieten. Es wird erwartet, dass sich die Gesamtleistung um 80 % verbessert, während das Leistungs-/Preisverhältnis voraussichtlich um 40 % verbessert wird. Für die Plattform selbst sollen die Chips bis zu 128 PCIe-Gen-6.0-Lanes, DDR6-7200-Speicherunterstützung und bis zu 288 MB L3-Cache bieten.

Die Diamond-Rapids-SP-Reihe ist das nicht bis 2025 erwartet, also ist es noch weit entfernt. Es wird auch Sierra Forest erwähnt, das kein Nachfolger, sondern eine Variation der Diamond Rapid-SP Xeon-Reihe ist, die sich an bestimmte Kunden wie AMDs Bergamo oder die HBM-Varianten von Sapphire Rapids-SP richten wird. Es wird definitiv bis 2026 nach Diamond Rapids-SP kommen.

Intel Xeon SP-Familien:

Family BrandingSkylake-SPCascade Lake-SP/APCooper Lake-SPIce Lake-SPSapphire RapidsEmerald RapidsGranite RapidsDiamond Rapids Prozessknoten14nm+14nm++14nm++10nm+Intel 7Intel 7Intel 4Intel 3? PlattformnameIntel PurleyIntel PurleyIntel Cedar IslandIntel WhitleyIntel Eagle StreamIntel Eagle StreamIntel Mountain Stream
Intel Birch StreamIntel Mountain Stream
Intel Birch Stream MCP (Multi-Chip-Paket) SKUsNeinJaNeinNeinJaTBDTBD (möglicherweise ja)TBD (möglicherweise ja) SocketLGA 3647LGA 3647LGA 4189LGA 4189LGA 4677LGA 4677LGA 4677TBD Max. KernanzahlBis zu 28Bis zu 28Bis zu 28Bis zu 40Bis zu 56Bis zu 64?Bis zu 120?TBD Max L338,5 MB L338,5 MB L360 MB L3105 MB L3120 MB L3?TBDTBD SpeicherunterstützungDDR4-2666 6-KanalDDR4-2933 6-KanalBis zu 6-Kanal DDR4-3200Bis zu 8-Kanal DDR4-3200Bis zu 8-Kanal DDR5-4800Up Zu 8-Kanal DDR5-5600?TBDTBD PCIe Gen SupportPCIe 3.0 (48 Lanes)PCIe 3.0 (48 Lanes)PCIe 3.0 (48 Lanes)PCIe 4.0 (64 Lanes)PCIe 5.0 (80 Lanes)PCIe 5.0PCIe 6.0?PCIe 6.0? TDP-Bereich140W-205W165W-205W150W-250W105-270WBis zu 350WBis zu 350WTBDTBD 3D Xpoint Optane DIMMN/AApache PassBarlow PassBarlow PassCrow PassCrow Pass?Donahue Pass?Donahue Pass? WettbewerbAMD EPYC Neapel 14nmAMD EPYC Rom 7nmAMD EPYC Rom 7nmAMD EPYC Mailand 7nm+AMD EPYC Genua ~5nmAMD Next-Gen EPYC (Post Genua)AMD Next-Gen EPYC (Post Genua)AMD Next-Gen EPYC (Post Genua) Launch201720182020202120222023?2024?2025 ?

Intel Xeon vs. AMD EPYC CPU-Generationsvergleich:

CPU NameProcess Node/ArchitectureCores/ThreadsCacheDDR Memory/Speed ​​/CapacitiesPCIe Gen/LanesTDPsPlatformLaunch AMD EPYC Turin3nm/Zen 5256/512?1024 MB L3 ?DDR5-6000/8 TB?PCIe Gen 6.0/TBDBis zu 600WSP52024-2025? Intel Diamond RapidsIntel 3/Lion Cove?144/288?288 MB L3?DDR6-7200/4 TB?PCIe Gen 6.0/128?Bis zu 425WMountain Stream2025? Intel Granite RapidsIntel 4/Redwood Cove120/240240 MB L3?DDR5-6400/4 TB?PCIe Gen 6.0/128?Bis zu 400WMountain Stream2024? AMD EPYC Bergamo5nm/Zen 4C128/256512 MB L3?DDR5-5600/6 TB 5.0/80Bis zu 375WEagle Stream2023 AMD EPYC Genoa5nm/Zen 496/192384 MB L3?DDR5-5200/4 TB?PCIe Gen 5.0/128Bis zu 400WSP52022 Intel Sapphire RapidsIntel 7/Golden Cove56/112105 MB L3DDR5-4800/Gen 4800 80Bis zu 350WEagle Stream2022

Categories: IT Info