Samsung geht davon aus, dass Speicherhalbleiter noch vor Ende des Jahrzehnts die Führung im KI-Supercomputing übernehmen werden. Das Unternehmen ist davon überzeugt, dass Speicherchips Nvidia-GPUs in KI-Serveranwendungen in den Schatten stellen. Und vor ein paar Monaten sagte Kye Hyun Kyung, Samsung werde dafür sorgen, dass „bis 2028 speicherhalbleiterbasierte Supercomputer auf den Markt kommen können“. Berichten zufolge bereitet sich Samsung in diesem Jahr auf die Massenproduktion von High-Bandwidwid-Memory-Chips (HBM) für KI-Anwendungen vor.
Laut koreanischen Medien plant Samsung die Massenfertigung von HBM-Chips für KI in der zweiten Hälfte des Jahres 2023 und beabsichtigt, mit SK Hynix gleichzuziehen, das schnell die Führung auf dem Markt für KI-Speicherhalbleiter übernahm.
SK Hynix hatte im Jahr 2022 einen Marktanteil von rund 50 % auf dem HBM-Markt, während Samsung laut TrendForce (über The Korea Times). Auf Micron entfielen die restlichen 10 %. Allerdings ist der HBM-Markt insgesamt nicht so verbreitet und macht nur etwa 1 % des gesamten DRAM-Segments aus.
Dennoch wird erwartet, dass die Nachfrage nach HBM-Lösungen mit dem Wachstum des KI-Marktes steigt, und Samsung beabsichtigt nun, mit SK Hynix gleichzuziehen und seine HBM3-Chips in Erwartung dieser Marktveränderungen in Massenproduktion herzustellen. Unabhängig davon, ob der Begriff „KI“ zu einem Schlagwort geworden ist oder nicht, werden KI-Server immer weiter verbreitet und Speicherlösungen mit hoher Bandbreite gewinnen immer mehr an Bedeutung.
Die HBM3-Lösung von Samsung stapelt mehrere DRAM-Chips vertikal und verfügt über Kapazitäten von 16 GB und 24 GB. HBM3 kann Geschwindigkeiten von bis zu 6,4 Gbit/s erreichen.