Raksasa teknologi seperti Intel, Google, Microsoft, Meta berkolaborasi untuk menciptakan standar industri untuk menghubungkan chip AI di pusat data, yang bertujuan untuk mengurangi ketergantungan pada Nvidia.

Pada tanggal 15 Mei, UAlink Promoter Group (UALink) resmi diluncurkan dengan partisipasi AMD, Hewlett Packard Enterprise, Broadcom, Cisco dan banyak nama terkenal lainnya (kecuali Arm dan Nvidia). Tujuan mereka adalah mengembangkan standar terbuka untuk menghubungkan chip akselerator AI di pusat data, untuk memutus ketergantungan pada teknologi milik Nvidia.

Versi pertama, UALink 1.0, akan menghubungkan hingga 1.024 GPU – jenis chip akselerator AI paling populer – dalam “pod” komputer (didefinisikan sebagai satu atau lebih rak server). Dibangun berdasarkan standar terbuka seperti Infinity Fabric AMD, UALink 1.0 memungkinkan transfer data langsung antara memori chip akselerator AI, sehingga meningkatkan kecepatan pemrosesan dan mengurangi latensi transfer data dibandingkan dengan standar koneksi lain yang ada.

Diharapkan pada kuartal ketiga tahun 2023, kelompok tersebut akan membentuk Konsorsium UALink untuk mengawal pengembangan standar UALink. Versi UALink 1.0 akan tersedia untuk perusahaan yang berpartisipasi pada waktu yang sama, sedangkan versi yang ditingkatkan dengan bandwidth lebih tinggi, UALink 1.1, diharapkan diluncurkan pada kuartal keempat tahun 2024.

Absennya yang paling menonjol dari grup ini adalah Nvidia – pembuat chip AI terbesar di dunia dengan perkiraan pangsa pasar 80 hingga 95%. Wajar jika Nvidia tidak tertarik dengan UAlink. Perusahaan ini memiliki teknologi koneksi GPU miliknya sendiri dan berada dalam posisi pasar yang dominan, dengan pendapatan pusat data (termasuk chip AI) yang tumbuh lebih dari 400% dari tahun ke tahun.

Selain AMD dan Intel, penerima manfaat terbesar UAlink mungkin adalah Microsoft, Meta, dan Google - perusahaan yang telah menghabiskan miliaran dolar untuk GPU Nvidia guna mengoperasikan layanan cloud dan melatih model AI. Ketiganya berusaha mencari alternatif selain Nvidia - mitra yang semakin kuat dan berisiko memonopoli segmen perangkat keras AI.

Menurut Gartner, nilai pasar chip akselerasi AI di server tahun ini akan mencapai 21 miliar USD, dan diperkirakan akan meningkat menjadi 33 miliar USD pada tahun 2028. Pendapatan chip AI juga diperkirakan mencapai 33,4 miliar USD pada tahun 2025.

Google sedang mengembangkan chip TPU dan Axion miliknya sendiri untuk tujuan pelatihan dan pengoperasian model AI. Amazon juga memiliki beberapa lini chip AI. Tahun lalu, Microsoft ikut serta dalam perlombaan bersama Maia dan Cobalt. Meta juga tidak ketinggalan permainan dengan lini chip akselerasinya sendiri.

Baru-baru ini, Microsoft dan OpenAI dikatakan telah berencana menghabiskan setidaknya $100 miliar untuk pelatihan superkomputer AI, menggunakan chip Cobalt dan Maia versi masa depan. Chip ini memerlukan solusi konektivitas – dan UALink bisa menjadi jawabannya.

Kelahiran UAlink menandai persaingan yang ketat di pasar chip AI. Keberhasilan UALink menantang Nvidia bergantung pada kemampuannya menarik lebih banyak anggota, kecepatan pengembangan standar, dan penerimaan pasar.