Samsung ritiene che i semiconduttori di memoria guideranno la carica nel supercalcolo dell’IA prima della fine del decennio. La società crede nei chip di memoria che eclissano le GPU Nvidia nelle applicazioni server AI. E un paio di mesi fa, Kye Hyun Kyung ha affermato che Samsung si assicurerà che”i supercomputer incentrati sui semiconduttori di memoria possano uscire entro il 2028″. Ora, i rapporti dicono che Samsung si sta preparando a produrre in serie chip di memoria ad alta larghezza di banda (HBM) per le applicazioni AI quest’anno.

Secondo i media coreani, Samsung sta progettando di produrre in serie chip HBM per l’IA nella seconda metà del 2023 e intende mettersi al passo con SK Hynix, quest’ultima che ha rapidamente assunto la leadership nel mercato dei semiconduttori di memoria AI.

SK Hynix deteneva una quota di mercato di circa il 50% nel mercato HBM nel 2022, mentre Samsung deteneva circa il 40%, secondo TrendForce (tramite The Korea Times). Micron rappresentava il restante 10%. Ma il mercato HBM nel suo complesso non è così diffuso e rappresenta solo l’1% circa dell’intero segmento DRAM.

Tuttavia, la domanda di soluzioni HBM dovrebbe aumentare con la crescita del mercato dell’IA e Samsung intende ora mettersi al passo con SK Hynix e produrre in serie i suoi chip HBM3 in previsione di questi cambiamenti del mercato. Indipendentemente dal fatto che il termine”AI”sia diventato o meno una parola d’ordine, i server AI stanno diventando sempre più diffusi e le soluzioni di memoria a larghezza di banda elevata stanno guadagnando maggiore trazione.

La soluzione HBM3 di Samsung impila verticalmente più chip DRAM e ha capacità da 16 GB e 24 GB. HBM3 può raggiungere velocità fino a 6,4 Gbps.

Categories: IT Info