Mula noong Hunyo ng nakaraang taon ilang sandali matapos i-anunsyo ng Intel ang Gaudi 2 AI accelerator nagsimula silang mag-post ng mga open-source na patch ng driver para sa Gaudi 2 kasama ang pangunahing Habana Labs driver. Ang suportang iyon ay nakarating sa Linux 6.0 at mula noon ay ipinagpatuloy nila ang pagpino sa suportang iyon para sa bagong suportang ito ng processor para sa malalim na pagsasanay sa pag-aaral at mga inference workload.
Sa mga sumunod na pag-update ng kernel, ipinagpatuloy ng Intel ang pagpapahusay sa suporta ng Gaudi 2 sa Habana Labs kernel driver, ngunit hindi pa malinaw kung gaano katatag o kumpleto ang suporta dahil sa kakulangan ng access sa hardware at wala pang pampublikong komunikasyon sa kung ano maaaring nawawala ang mga piraso o kung gaano katatag ang suporta sa patuloy na pagpapabuti ng open-source code na ito.
Ngayon ay ang unang kumpirmasyon na ang suporta ng Intel Gaudi 2 ay nasa maayos na kalagayan ngayon kung gumagamit ng pinakabagong pangunahing Linux kernel driver. Nagkomento ang longtime Habana Labs Linux driver developer/maintainer na si Oded Gabbay sa pull request ngayon:
“Dahil medyo stable ang Gaudi2, naglalaman ito ng karamihan sa mga pag-aayos ng bug at maliliit na pag-optimize at pagpapahusay.”
Kaya sa kasalukuyang Linux 6.4 kernel ang Gaudi 2 support ay dapat na”medyo stable”habang para sa paparating na Linux 6.5 cycle ay mga bug fix at mas maliliit na pag-optimize.
Ang komentong iyon ay sa pamamagitan ng ang pull request na ito ng Habana Labs accelerator driver improvements na isinumite ngayon para sa DRM-Next upang makapasok naman sa pangunahing linya ng kernel sa sandaling magbukas ang Linux 6.5 merge window sa pagtatapos ng buwan.
Bilang karagdagan sa suporta ng Gaudi 2 sa loob ng kernel ng Linux, sa espasyo ng gumagamit ang kanilang open-source na SynapseAI Core ay mayroon na ring suporta sa Gaudi 2. Ang mga Intel’s Habana Labs AI accelerators ay patuloy na pinaka-open-source, upstream accelerator na opsyon na kasalukuyang available para sa AI training at inference.