« comunicado à imprensa »


AMD expande portfólio de data center de liderança com novas CPUs EPYC e compartilha detalhes sobre acelerador AMD Instinct de última geração e capacitação de software para IA generativa

— A AMD libera o poder da computação especializada para o data center com novos processadores AMD EPYC para computação nativa e técnica em nuvem —

—AMD revela detalhes sobre a próxima geração da AMD Produtos Instinct para IA generativa e destaca as colaborações do ecossistema de software de IA com Hugging Face e PyTorch —

SANTA CLARA, Califórnia, 13 de junho de 2023 (GLOBE NEWSWIRE) — Hoje, no “Data Center and AI Technology Premiere”, AMD (NASDAQ: AMD) anunciou os produtos, a estratégia e parceiros do ecossistema que moldarão o futuro da computação, destacando a próxima fase da inovação do data center. A AMD se juntou ao palco com executivos da Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure e PyTorch para mostrar as parcerias tecnológicas com líderes do setor para trazer a próxima geração de soluções de aceleração de CPU e IA de alto desempenho para o mercado.

“Hoje, demos outro passo significativo em nossa estratégia de data center ao expandirmos nossa família de processadores EPYC™ de 4ª geração com novas soluções de liderança para cargas de trabalho de computação técnica e em nuvem e anunciamos novas instâncias públicas e implantações internas com os maiores provedores de nuvem”, disse a presidente e CEO da AMD, Dra. Lisa Su. “A IA é a tecnologia que define a próxima geração de computação e a maior oportunidade estratégica de crescimento para a AMD. Estamos focados em acelerar a implantação de plataformas AMD AI em escala no data center, liderados pelo lançamento de nossos aceleradores Instinct MI300 planejados para o final deste ano e o crescente ecossistema de software AI pronto para empresas otimizado para nosso hardware.”

Infraestrutura de computação otimizada para o data center moderno
A AMD revelou uma série de atualizações para sua família EPYC de 4ª geração, projetada para oferecer aos clientes a especialização de carga de trabalho necessária para atender às necessidades exclusivas das empresas necessidades.

Avanço da melhor CPU de data center do mundo. A AMD destacou como o processador AMD EPYC de 4ª geração continua a impulsionar o desempenho de liderança e a eficiência energética. A AMD juntou-se à AWS para destacar uma prévia das instâncias M7a da Amazon Elastic Compute Cloud (Amazon EC2) de próxima geração, equipadas com processadores AMD EPYC de 4ª geração (“Genoa”). Fora do evento, a Oracle anunciou planos para disponibilizar novas instâncias Oracle Computing Infrastructure (OCI) E5 com processadores AMD EPYC de 4ª geração. Computação nativa em nuvem sem concessões. A AMD apresentou os processadores AMD EPYC 97X4 de 4ª geração, anteriormente codinome “Bergamo”. Com 128 núcleos “Zen 4c” por soquete, esses processadores fornecem a maior densidade de vCPU1 e o desempenho líder do setor2 para aplicativos executados na nuvem, além de eficiência energética líder. A AMD se juntou a Meta, que discutiu como esses processadores são adequados para seus aplicativos principais, como Instagram, WhatsApp e outros; como a Meta está obtendo ganhos de desempenho impressionantes com os processadores AMD EPYC 97 × 4 de 4ª geração em comparação com os processadores AMD EPYC de 3ª geração em várias cargas de trabalho, além de oferecer melhorias substanciais de TCO, e como a AMD e a Meta otimizaram as CPUs EPYC para eficiência de energia e computação da Meta-requisitos de densidade. Habilitando melhores produtos com computação técnica. A AMD apresentou os processadores AMD EPYC de 4ª geração com tecnologia AMD 3D V-Cache™, a CPU de servidor x86 de maior desempenho do mundo para computação técnica3. A Microsoft anunciou a disponibilidade geral das instâncias Azure HBv4 e HX, equipadas com processadores AMD EPYC de 4ª geração com tecnologia AMD 3D V-Cache.

AMD AI Platform – The Pervasive AI Vision
Hoje, A AMD divulgou uma série de anúncios mostrando sua estratégia de plataforma de IA, oferecendo aos clientes um portfólio de produtos de hardware de nuvem, de ponta a ponta, com profunda colaboração de software do setor, para desenvolver soluções de IA escalonáveis ​​e abrangentes.

p> Apresentando o Acelerador Mais Avançado do Mundo para IA Generativa4. A AMD revelou novos detalhes da família de aceleradores AMD Instinct™ Série MI300, incluindo o introdução do acelerador AMD Instinct MI300X, o acelerador mais avançado do mundo para IA generativa. O MI300X é baseado na arquitetura do acelerador AMD CDNA™ 3 de última geração e suporta até 192 GB de memória HBM3 para fornecer a eficiência de computação e memória necessária para treinamento e inferência de modelo de linguagem grande para cargas de trabalho de IA generativa. Com a grande memória do AMD Instinct MI300X, os clientes agora podem instalar modelos de linguagem grande, como o Falcon-40, um modelo de parâmetro de 40B em um único acelerador MI300X5. A AMD também apresentou a plataforma AMD Instinct™, que reúne oito aceleradores MI300X em um design padrão do setor para a solução definitiva para treinamento e inferência de IA. O MI300X está sendo amostrado para os principais clientes a partir do terceiro trimestre. A AMD também anunciou que o AMD Instinct MI300A, o primeiro acelerador de APU do mundo para cargas de trabalho de HPC e IA, agora está sendo testado para os clientes. Trazendo uma plataforma de software de IA aberta, comprovada e pronta para o mercado. A AMD apresentou o ecossistema de software ROCm™ para aceleradores de data center, destacando a prontidão e as colaborações com líderes do setor para reunir um ecossistema aberto de software de IA. A PyTorch discutiu o trabalho entre a AMD e a PyTorch Foundation para upstream total da pilha de software ROCm, fornecendo suporte imediato de “dia zero” para PyTorch 2.0 com ROCm versão 5.4.2 em todos os aceleradores AMD Instinct. Essa integração capacita os desenvolvedores com uma ampla variedade de modelos de IA desenvolvidos pelo PyTorch que são compatíveis e prontos para uso “prontos para uso” nos aceleradores AMD. Hugging Face, plataforma aberta líder para construtores de IA, anunciou que otimizará milhares de modelos Hugging Face em plataformas AMD, desde aceleradores AMD Instinct até processadores AMD Ryzen™ e AMD EPYC, GPUs AMD Radeon™ e processadores adaptativos Versal™ e Alveo™.

Um portfólio de rede robusto para a nuvem e empresas
A AMD apresentou um portfólio de rede robusto, incluindo AMD Pensando™ DPU, NICs AMD de latência ultra baixa e AMD NICs adaptáveis. Além disso, os DPUs AMD Pensando combinam uma pilha de software robusta com “segurança de confiança zero” e processador de pacotes programável líder para criar o DPU mais inteligente e de melhor desempenho do mundo. O AMD Pensando DPU é implantado em escala em parceiros de nuvem, como IBM Cloud, Microsoft Azure e Oracle Compute Infrastructure. Na empresa, ele é implantado no Switch inteligente HPE Aruba CX 10000 e com clientes como a DXC, empresa líder em serviços de TI, e como parte do VMware vSphere® Distributed Services Engine™, acelerando o desempenho do aplicativo para os clientes.

A AMD destacou a próxima geração de seu roteiro de DPU, codinome “Giglio”, que visa trazer desempenho aprimorado e eficiência de energia aos clientes, em comparação com os produtos da geração atual, quando deve estar disponível até o final de 2023.

A AMD também anunciou o AMD Pensando Software-in-Silicon Developer Kit (SSDK), dando aos clientes a capacidade de desenvolver ou migrar rapidamente serviços para implantar no DPU programável AMD Pensando P4 em coordenação com o rico conjunto existente de recursos já implementados na plataforma AMD Pensando. O AMD Pensando SSDK permite que os clientes coloquem o poder da liderança AMD Pensando DPU para trabalhar e adaptar a virtualização de rede e os recursos de segurança em sua infraestrutura, em coordenação com o rico conjunto existente de recursos já implementados na plataforma Pensando.


« fim do comunicado »

Categories: IT Info