Naniniwala ang Samsung na ang memory semiconductors ang mangunguna sa pagsingil sa AI supercomputing bago matapos ang dekada. Ang kumpanya ay naniniwala sa mga memory chips na nanggagaling sa mga Nvidia GPU sa mga application ng AI server. At ilang buwan na ang nakalipas, sinabi ni Kye Hyun Kyung na titiyakin ng Samsung na”maaaring lumabas ang memory semiconductor-centered supercomputers sa 2028.”Ngayon, sinasabi ng mga ulat na naghahanda ang Samsung na gumawa ng mga high-bandwidth memory (HBM) chips para sa mga AI application ngayong taon.
Ayon sa Korean media, ang Samsung ay nagpaplanong gumawa ng maramihang HBM chips para sa AI sa ikalawang kalahati ng 2023 at nagnanais na makahabol sa SK Hynix, na ang huli ay mabilis na nanguna sa merkado ng AI memory semiconductor.
Ang SK Hynix ay may humigit-kumulang 50% market share sa HBM market noong 2022, habang ang Samsung ay humawak ng humigit-kumulang 40%, ayon sa TrendForce (sa pamamagitan ng The Korea Times). Micron accounted para sa natitirang 10%. Ngunit ang HBM market sa kabuuan ay hindi ganoon kalat at halos 1% lang ng buong segment ng DRAM.
Gayunpaman, inaasahang tataas ang demand para sa mga solusyon sa HBM habang lumalaki ang AI market, at nilalayon na ngayon ng Samsung na abutin ang SK Hynix at mass produce ang HBM3 chips nito bilang pag-asa sa mga pagbabago sa market na ito. Hindi alintana kung ang terminong”AI”ay naging isang buzzword o hindi, ang mga server ng AI ay nagiging mas laganap, at ang mga solusyon sa high-bandwidth na memorya ay nakakakuha ng higit na traksyon.
Ang solusyon ng HBM3 ng Samsung ay patayo na nagsasalansan ng maraming DRAM chip at may 16GB at 24GB na kapasidad. Magagawa ng HBM3 ang pinakamataas na bilis ng hanggang 6.4Gbps.