A Samsung acredita que os semicondutores de memória liderarão o avanço da supercomputação de IA antes do final da década. A empresa acredita em chips de memória superando as GPUs Nvidia em aplicativos de servidor de IA. E alguns meses atrás, Kye Hyun Kyung disse que a Samsung garantirá que “supercomputadores centrados em semicondutores de memória possam ser lançados até 2028”. Agora, relatórios dizem que a Samsung está se preparando para produzir em massa chips de memória de alta largura de banda (HBM) para aplicativos de IA este ano.

De acordo com a mídia coreana, Samsung planeja fabricar em massa chips HBM para IA no segundo semestre de 2023 e pretende alcançar o SK Hynix, o último dos quais rapidamente assumiu a liderança no mercado de semicondutores de memória AI.

SK Hynix tinha cerca de 50% de participação de mercado no mercado HBM em 2022, enquanto Samsung detinha cerca de 40%, de acordo com TrendForce (via The Korea Times). A Micron respondeu pelos 10% restantes. Mas o mercado HBM como um todo não é tão prevalente e representa apenas cerca de 1% de todo o segmento DRAM.

No entanto, espera-se que a demanda por soluções HBM aumente à medida que o mercado de IA cresce, e a Samsung agora pretende alcançar o SK Hynix e produzir em massa seus chips HBM3 em antecipação a essas mudanças no mercado. Independentemente de o termo “IA” ter se tornado ou não uma palavra da moda, os servidores de IA estão se tornando mais difundidos e as soluções de memória de alta largura de banda estão ganhando mais força.

A solução HBM3 da Samsung empilha verticalmente vários chips DRAM e tem capacidades de 16 GB e 24 GB. O HBM3 pode atingir velocidades de até 6,4 Gbps.

Categories: IT Info