Die neuen Compute Engine A3-Supercomputer von Google Cloud sind für die anspruchsvollsten Modelle der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) konzipiert und kombinieren NVIDIA H100 Tensor Core-GPUs mit den Netzwerkfortschritten von Google.
Im Vergleich zu Mit den A2-VMs des Unternehmens behauptet Google bis zu zehnmal mehr Netzwerkbandbreite bei geringeren Latenzen und verbesserter Stabilität. Wie wurde das erreicht? Die neuen A3-Supercomputer mit NVIDIA H100-GPUs sind die ersten, die Googles speziell entwickelte 200-Gbit/s-IPUs verwenden, wobei GPU-Daten den CPU-Host auf einer separaten Schnittstelle im Vergleich zu anderen VM-Netzwerken und Datenverkehr umgehen.
Wie bei allen Die Skalierbarkeit von Supercomputing und modernster KI-basierter Technologie ermöglicht den Betrieb von Zehntausenden miteinander verbundenen GPUs mit einer „Workload-Bandbreite, die nicht von teureren, handelsüblichen, nicht blockierenden Netzwerkstrukturen zu unterscheiden ist.“
Beeindruckendes Zeug. Hier ist eine Aufschlüsselung der Funktionen der neuen A3-Supercomputer von Google.
8 H100-GPUs nutzen die Hopper-Architektur von NVIDIA und bieten einen dreifachen Rechendurchsatz und eine halbierende Bandbreite von 3,6 TB/s zwischen den 8 GPUs des A3 über NVIDIA NVSwitch und NVLink 4.0 der 4. Generation der nächsten Generation Skalierbare Prozessoren der Generation Intel NVIDIA in Bezug auf KI und Cloud-basiertes Computing.
„Die A3-VMs von Google Cloud, die von NVIDIA H100-GPUs der nächsten Generation angetrieben werden, werden das Training und die Bereitstellung generativer KI-Anwendungen beschleunigen“, sagte Ian Buck, Vizepräsident von Hyperscale und Hochleistungsrechnen bei NVIDIA. „Nach den kürzlich eingeführten G2-Instanzen von Google Cloud sind wir stolz darauf, unsere Zusammenarbeit mit Google Cloud fortzusetzen, um Unternehmen auf der ganzen Welt mit einer speziell entwickelten KI-Infrastruktur zu transformieren.“