« Pressemitteilung »


NVIDIA kündigt KI-Supercomputer DGX GH200 an

Neue Klasse von KI-Supercomputern verbindet 256 Grace-Hopper-Superchips zu massiven 1-Exaflops. 144-TB-GPU für Riesenmodelle für generative KI, Empfehlungssysteme und Datenverarbeitung

COMPUTEX – NVIDIA hat heute eine neue Klasse von KI-Supercomputern mit großem Speicher angekündigt – einen NVIDIA DGX ™ Supercomputer mit NVIDIA® GH200 Grace Hopper Superchips und dem NVIDIA NVLink® Switch System – entwickelt, um die Entwicklung riesiger Modelle der nächsten Generation für generative KI-Sprachanwendungen, Empfehlungssysteme und Datenanalyse-Workloads zu ermöglichen.

Der riesige gemeinsame Speicherbereich der NVIDIA DGX GH200 nutzt die NVLink-Verbindungstechnologie mit dem NVLink Switch System, um 256 GH200-Superchips zu kombinieren, sodass sie als eine einzige GPU arbeiten können. Dies bietet 1 Exaflop Leistung und 144 Terabyte gemeinsam genutzten Speicher – fast 500-mal mehr Speicher als die vorherige Generation der NVIDIA DGX A100, die 2020 eingeführt wurde.

„Generative KI, große Sprachmodelle und Empfehlungssysteme sind die.“ „Digitale Motoren der modernen Wirtschaft“, sagte Jensen Huang, Gründer und CEO von NVIDIA. „DGX GH200 KI-Supercomputer integrieren die fortschrittlichsten beschleunigten Rechen-und Netzwerktechnologien von NVIDIA, um die Grenzen der KI zu erweitern.“

NVIDIA NVLink-Technologie erweitert KI im großen Maßstab
GH200-Superchips eliminieren das Erledigung der Notwendigkeit einer herkömmlichen CPU-zu-GPU-PCIe-Verbindung durch die Kombination einer Arm-basierten NVIDIA Grace™-CPU mit einer NVIDIA H100 Tensor Core-GPU im selben Paket unter Verwendung von NVIDIA NVLink-C2C-Chipverbindungen. Dadurch wird die Bandbreite zwischen GPU und CPU im Vergleich zur neuesten PCIe-Technologie um das Siebenfache erhöht, der Verbindungsstromverbrauch um mehr als das Fünffache gesenkt und ein 600-GB-GPU-Baustein mit Hopper-Architektur für DGX GH200-Supercomputer bereitgestellt.

DGX GH200 ist der erste Supercomputer, der Grace Hopper Superchips mit dem NVIDIA NVLink Switch System kombiniert, einer neuen Verbindung, die es allen GPUs in einem DGX GH200-System ermöglicht, als eine Einheit zusammenzuarbeiten. Das System der vorherigen Generation sah nur die Kombination von acht GPUs mit NVLink als eine GPU vor, ohne die Leistung zu beeinträchtigen.

Die DGX GH200-Architektur bietet 48-mal mehr NVLink-Bandbreite als die vorherige Generation und liefert die Leistung einer massiven KI Supercomputer mit der Einfachheit der Programmierung einer einzelnen GPU.

Ein neues Forschungstool für KI-Pioniere
Google Cloud, Meta und Microsoft gehören dazu Zunächst wird erwartet, dass er Zugang zum DGX GH200 erhält, um seine Fähigkeiten für generative KI-Workloads zu erkunden. NVIDIA beabsichtigt außerdem, das DGX GH200-Design als Blaupause für Cloud-Dienstanbieter und andere Hyperscaler bereitzustellen, damit diese es weiter an ihre Infrastruktur anpassen können.

„Der Aufbau fortschrittlicher generativer Modelle erfordert innovative Ansätze für die KI-Infrastruktur“, sagte er Mark Lohmeyer, Vizepräsident für Compute bei Google Cloud. „Die neue NVLink-Skala und der gemeinsame Speicher der Grace Hopper Superchips beseitigen wichtige Engpässe in der groß angelegten KI und wir freuen uns darauf, ihre Fähigkeiten für Google Cloud und unsere generativen KI-Initiativen zu erkunden.“

„Während die KI-Modelle wachsen.“ Je größer sie werden, desto mehr benötigen sie eine leistungsstarke Infrastruktur, die sich an steigende Anforderungen anpassen lässt“, sagte Alexis Björlin, Vizepräsident für Infrastruktur, KI-Systeme und beschleunigte Plattformen bei Meta. „Das Grace Hopper-Design von NVIDIA soll Forschern die Möglichkeit geben, neue Ansätze zur Lösung ihrer größten Herausforderungen zu erforschen.“

„Das Training großer KI-Modelle ist traditionell eine ressourcen-und zeitintensive Aufgabe“, sagte Girish Bablani , Corporate Vice President für Azure Infrastructure bei Microsoft. „Das Potenzial des DGX GH200, mit Datensätzen im Terabyte-Bereich zu arbeiten, würde es Entwicklern ermöglichen, fortgeschrittene Forschung in größerem Maßstab und mit beschleunigter Geschwindigkeit durchzuführen.“

Neuer NVIDIA Helios Supercomputer soll Forschung und Entwicklung vorantreiben
NVIDIA ist baut seinen eigenen DGX GH200-basierten KI-Supercomputer, um die Arbeit seiner Forscher und Entwicklungsteams voranzutreiben.

Der Supercomputer mit dem Namen NVIDIA Helios wird über vier DGX GH200-Systeme verfügen. Jedes wird mit dem NVIDIA Quantum-2 InfiniBand-Netzwerk verbunden, um den Datendurchsatz für das Training großer KI-Modelle zu steigern. Helios wird 1.024 Grace-Hopper-Superchips umfassen und wird voraussichtlich Ende des Jahres online gehen.

Vollständig integriert und speziell für Riesenmodelle entwickelt
DGX GH200-Supercomputer umfassen NVIDIA-Software zur Bereitstellung einer schlüsselfertigen Komplettlösung für die größten KI-und Datenanalyse-Workloads. Die NVIDIA Base Command™-Software bietet KI-Workflow-Management, Cluster-Management der Enterprise-Klasse, Bibliotheken, die die Rechen-, Speicher-und Netzwerkinfrastruktur beschleunigen, sowie Systemsoftware, die für die Ausführung von KI-Workloads optimiert ist.

Ebenfalls enthalten ist NVIDIA AI Enterprise, das Softwareschicht der NVIDIA AI-Plattform. Es bietet über 100 Frameworks, vorab trainierte Modelle und Entwicklungstools, um die Entwicklung und Bereitstellung von Produktions-KI zu optimieren, einschließlich generativer KI, Computer Vision, Sprach-KI und mehr.

Verfügbarkeit
NVIDIA DGX GH200-Supercomputer werden voraussichtlich Ende des Jahres verfügbar sein.


« Ende der Pressemitteilung »

Categories: IT Info