« comunicado à imprensa »
NVIDIA anuncia supercomputador DGX GH200 AI
Nova classe de supercomputador AI conecta 256 superchips Grace Hopper em maciço, 1-Exaflop, GPU de 144 TB para modelos gigantes alimentando IA generativa, sistemas de recomendação e processamento de dados
COMPUTEX — a NVIDIA anunciou hoje uma nova classe de supercomputadores de IA com memória grande — um NVIDIA DGX ™ alimentado por NVIDIA® GH200 Grace Hopper Superchips e o NVIDIA NVLink® Switch System — criado para permitir o desenvolvimento de modelos gigantes de última geração para aplicativos generativos de linguagem AI, sistemas de recomendação e cargas de trabalho de análise de dados.
O enorme espaço de memória compartilhada do NVIDIA DGX GH200 usa a tecnologia de interconexão NVLink com o NVLink Switch System para combinar 256 superchips GH200, permitindo que funcionem como uma única GPU. Isso fornece 1 exaflop de desempenho e 144 terabytes de memória compartilhada-quase 500 vezes mais memória do que a geração anterior NVIDIA DGX A100, lançada em 2020.
“IA generativa, modelos de linguagem grandes e sistemas de recomendação são os motores digitais da economia moderna”, disse Jensen Huang, fundador e CEO da NVIDIA. “Os supercomputadores DGX GH200 AI integram as tecnologias de computação e rede aceleradas mais avançadas da NVIDIA para expandir a fronteira da IA.”
A tecnologia NVIDIA NVLink expande a IA em escala
Os superchips GH200 eliminam a necessidade de uma conexão tradicional de CPU para GPU PCIe combinando uma CPU NVIDIA Grace™ baseada em Arm com uma GPU NVIDIA H100 Tensor Core no mesmo pacote, usando interconexões de chip NVIDIA NVLink-C2C. Isso aumenta a largura de banda entre GPU e CPU em 7x em comparação com a tecnologia PCIe mais recente, reduz o consumo de energia de interconexão em mais de 5x e fornece um bloco de construção de GPU de arquitetura Hopper de 600 GB para supercomputadores DGX GH200.
DGX GH200 é o primeiro supercomputador a emparelhar Grace Hopper Superchips com o NVIDIA NVLink Switch System, uma nova interconexão que permite que todas as GPUs em um sistema DGX GH200 funcionem juntas como uma só. O sistema da geração anterior fornecia apenas oito GPUs para serem combinadas com NVLink como uma GPU sem comprometer o desempenho.
A arquitetura DGX GH200 fornece 48x mais largura de banda NVLink do que a geração anterior, oferecendo o poder de uma AI massiva supercomputador com a simplicidade de programar uma única GPU.
Uma nova ferramenta de pesquisa para os pioneiros da IA
Google Cloud, Meta e Microsoft estão entre os primeiro esperava obter acesso ao DGX GH200 para explorar seus recursos para cargas de trabalho de IA generativas. A NVIDIA também pretende fornecer o design DGX GH200 como um projeto para provedores de serviços em nuvem e outros hiperescaladores, para que possam personalizá-lo ainda mais para sua infraestrutura.
“A construção de modelos generativos avançados requer abordagens inovadoras para a infraestrutura de IA”, disse Mark Lohmeyer, vice-presidente de computação do Google Cloud. “A nova escala NVLink e a memória compartilhada dos superchips Grace Hopper abordam os principais gargalos da IA em larga escala e estamos ansiosos para explorar seus recursos para o Google Cloud e nossas iniciativas de IA generativa.”
“À medida que os modelos de IA crescem maiores, precisam de uma infraestrutura poderosa que possa ser dimensionada para atender às demandas crescentes”, disse Alexis Björlin, vice-presidente de infraestrutura, sistemas de IA e plataformas aceleradas da Meta. “O design Grace Hopper da NVIDIA procura fornecer aos pesquisadores a capacidade de explorar novas abordagens para resolver seus maiores desafios.”
“Treinar grandes modelos de IA é tradicionalmente uma tarefa que consome muitos recursos e tempo”, disse Girish Bablani , vice-presidente corporativo de infraestrutura do Azure na Microsoft. “O potencial do DGX GH200 para trabalhar com conjuntos de dados do tamanho de terabytes permitiria que os desenvolvedores conduzissem pesquisas avançadas em uma escala maior e velocidades aceleradas.”
Novo supercomputador NVIDIA Helios para pesquisa e desenvolvimento avançados
NVIDIA é construindo seu próprio supercomputador baseado em DGX GH200 para potencializar o trabalho de seus pesquisadores e equipes de desenvolvimento.
Batizado NVIDIA Helios, o supercomputador contará com quatro sistemas DGX GH200. Cada um será interconectado com a rede NVIDIA Quantum-2 InfiniBand para sobrecarregar a taxa de transferência de dados para treinar grandes modelos de IA. O Helios incluirá 1.024 Superchips Grace Hopper e deverá entrar em operação até o final do ano.
Totalmente integrado e desenvolvido especificamente para modelos gigantes
Os supercomputadores DGX GH200 incluem Software NVIDIA para fornecer uma solução completa e pronta para uso para as maiores cargas de trabalho de IA e análise de dados. O software NVIDIA Base Command™ oferece gerenciamento de fluxo de trabalho de IA, gerenciamento de cluster de nível empresarial, bibliotecas que aceleram computação, armazenamento e infraestrutura de rede e software de sistema otimizado para executar cargas de trabalho de IA.
Também está incluído o NVIDIA AI Enterprise, o camada de software da plataforma NVIDIA AI. Ele fornece mais de 100 estruturas, modelos pré-treinados e ferramentas de desenvolvimento para simplificar o desenvolvimento e a implantação de IA de produção, incluindo IA generativa, visão computacional, IA de fala e muito mais.
Disponibilidade
NVIDIA Espera-se que os supercomputadores DGX GH200 estejam disponíveis até o final do ano.
« fim do comunicado de imprensa »