Gli ingegneri del software oneAPI di Intel stanno chiudendo il trimestre rilasciando oneDNN 3.1 come la versione più recente di questa libreria di rete neurale utilizzata da artisti del calibro di PyTorch, Tensorflow, PaddlePaddle, ONNX, OpenVINO, Deep Learning Toolbox di MATLAB, Apache MXNet e molti altri applicazioni.
La libreria di rete neurale profonda oneAPI di Intel è uno dei numerosi progetti open source di successo che gode di una buona trazione nel settore per aiutare ad accelerare le applicazioni di deep learning su una varietà di architetture CPU e GPU. A dicembre, prima del lancio di”Sapphire Rapids”di Xeon Scalable di quarta generazione, è stata presentata la oneDNN 3.0 con il raffinato supporto Sapphire Rapids e molte altre modifiche.
Oggi è disponibile oneDNN 3.1 che offre continue ottimizzazioni delle prestazioni per Sapphire Rapids. La versione oneDNN 3.0 ha già fatto miracoli con le CPU Sapphire Rapids con supporto AMX e con questa nuova versione ora dovrebbe essere ancora più performante.
Inoltre, oneDNN 3.1 offre ottimizzazioni iniziali per le CPU”Sierra Forest”scalabili Xeon che sono le CPU Xeon solo E-core con un massimo di 144 core per socket e verranno rilasciate nella prima metà del 2024. Mentre ancora un anno dopo aver visto Sierra Forest, grazie all’ottimo track record di software open source di Intel, sono già impegnati a lavorare sull’ottimizzazione delle prestazioni per quel processore.
Anche la versione 3.1 di oneDNN continua ottimizzando le prestazioni grafiche non solo per la serie Data Center GPU Max, ma anche per Arc Graphics e la serie Data Center GPU Flex.
La versione oneDNN 3.1 apporta anche alcuni miglioramenti AArch64, MATMUL ottimizzato per GPU AMD, migliori prestazioni primitive di pooling per le CPU RISC-V con l’estensione RVV, abilitando l’API oneDNN Graph come funzionalità di produzione e una varietà di altri miglioramenti.
Download e ulteriori dettagli su tutti i miglioramenti della versione 3.1 di oneDNN tramite GitHub. Presto proverò questa nuova versione di oneDNN 3.1.