Nvidias leistungsstarke A100-GPUs werden Teil seiner HGX-KI-Super-Computing-Plattform, dem kalifornischen grafikintensiven Koloss heute angekündigt mit neuen Technologien wie 80-GB-Speichermodulen, 400-G-Infiniband-Netzwerk und Magnum IO GPUDirect Storage-Software wird ebenfalls hinzugefügt.
Der A100, der kürzlich seine von Ampere angetriebenen Muskeln spielen ließ, um den Titan V als e leistungsstärkste GPU im OctaneBench-Benchmark gibt es in zwei Formen: eine mit 40 GB HBM2E und die andere mit 80 GB. Das größere Modell verfügt über die weltweit größte Speicherbandbreite und überträgt über zwei Terabyte pro Sekunde. Basierend auf einem 7-nm-Prozess erhalten Sie 54,2 Milliarden Transistoren, die in 6912 Shading-Einheiten, 432 Textur-Mapping-Einheiten, 160 ROPs und 432 Tensor-Kernen angeordnet sind.
Diese GPUs zusammenführen In den riesigen Racks von Supercomputern befinden sich Technologien wie Magnum IO GPUDirect Storage, die die Latenz verringern, indem sie einen direkten Zugriff zwischen GPU-Speicher und-Speicher ermöglicht. Infiniband-Netzwerke mit bis zu 400 Gb/s ermöglichen eine Bandbreite von bis zu 1,64 Pb/s pro Switch mit 2.048 Ports und können mehr als eine Million Knoten verbinden.
„Die HPC-Revolution begann in der akademischen Welt und ist sich schnell auf ein breites Spektrum von Branchen aus“, sagte Jensen Huang, Gründer und CEO von Nvidia. „Schlüsseldynamiken treiben superexponentielle Fortschritte nach dem Super-Moore-Gesetz voran, die HPC zu einem nützlichen Werkzeug für die Industrie gemacht haben. Die HGX-Plattform von Nvidia bietet Forschern eine beispiellose High-Performance-Computing-Beschleunigung, um die schwierigsten Probleme der Industrie zu lösen.“
Die HGX-Plattform ist nicht gerade für den Heimgebrauch konzipiert und wird von Unternehmen wie General Electric verwendet, die numerische Strömungsmechanik simulieren neue große Gasturbinen und Strahltriebwerke zu entwickeln. Es wird auch verwendet, um den Supercomputer der nächsten Generation an der University of Edinburgh zu bauen, der für die computergestützte Teilchenphysik optimiert ist, um Daten aus massiven Teilchenphysik-Experimenten wie dem Large Hadron Collider zu analysieren.