Superkomputer Compute Engine A3 baru dari Google Cloud dibuat untuk model kecerdasan buatan (AI) dan pembelajaran mesin (ML) yang paling menuntut, menggabungkan GPU NVIDIA H100 Tensor Core dengan kecanggihan jaringan Google.

Dibandingkan dengan VM A2 perusahaan, Google mengklaim bandwidth jaringan hingga 10x lebih banyak dengan latensi rendah dan peningkatan stabilitas. Bagaimana cara mencapai ini? Superkomputer A3 baru yang menggunakan GPU NVIDIA H100 adalah yang pertama menggunakan IPU 200 Gbps rancangan khusus Google dengan data GPU yang melewati host CPU pada antarmuka terpisah dibandingkan dengan jaringan VM dan lalu lintas data lainnya.

Seperti halnya semua hal-hal yang superkomputasi dan berbasis AI mutakhir, skalabilitas memungkinkan puluhan ribu GPU yang saling terhubung untuk beroperasi dengan”bandwidth beban kerja yang tidak dapat dibedakan dari kain jaringan non-pemblokiran siap pakai yang lebih mahal”.

Hal-hal yang mengesankan. Berikut perincian fitur superkomputer A3 baru dari Google.

8 GPU H100 yang menggunakan arsitektur Hopper NVIDIA, menghadirkan throughput komputasi 3x bandwidth bisectional 3,6 TB/dtk antara 8 GPU A3 melalui NVIDIA NVSwitch dan NVLink 4.0 Next-generation 4th Prosesor Intel Xeon yang Dapat Diskalakan Generasi 2 TB memori host melalui DDR5 DIMM 4800 MHz Bandwidth jaringan 10x lebih besar didukung oleh IPU yang didukung perangkat keras, tumpukan komunikasi GPU antar-server khusus, dan pengoptimalan NCCL

Pengumuman ini juga memperkuat kemitraan antara Google dan NVIDIA terkait AI dan komputasi berbasis cloud.

“A3 VM Google Cloud, didukung oleh GPU NVIDIA H100 generasi berikutnya, akan mempercepat pelatihan dan penyajian aplikasi AI generatif,”kata Ian Buck, wakil presiden hyperscale dan komputasi performa tinggi di NVIDIA.”Seiring dengan peluncuran instans G2 Google Cloud yang baru-baru ini, kami bangga dapat melanjutkan pekerjaan kami dengan Google Cloud untuk membantu mengubah perusahaan di seluruh dunia dengan infrastruktur AI yang dibuat khusus.”

Categories: IT Info