Qualcomm Tantang NVIDIA dan AMD dengan Chip AI Menggunakan Memori Mobile untuk Inferensi Skala Rak

Tim Editorial BigGo
Qualcomm Tantang NVIDIA dan AMD dengan Chip AI Menggunakan Memori Mobile untuk Inferensi Skala Rak

Lanskap perangkat keras AI, yang lama didominasi oleh NVIDIA dan AMD, kini menyaksikan penantang baru yang berani. Qualcomm, yang secara tradisional dikenal untuk prosesor mobilenya, telah mengumumkan masuknya ke dalam arena akselerasi AI skala rak berisiko tinggi dengan chip AI200 dan AI250 barunya. Dalam pivot strategis yang mengejutkan, perusahaan ini menghindari High Bandwidth Memory (HBM) yang menjadi standar industri demi memori LPDDR yang berasal dari mobile, dengan tujuan membangun ceruk di pasar inferensi AI yang tumbuh pesat dengan fokus pada efisiensi daya dan biaya.

Rak server baru Qualcomm yang ramping menyoroti masuknya mereka ke pasar perangkat keras AI dengan chip AI200 dan AI250 yang inovatif
Rak server baru Qualcomm yang ramping menyoroti masuknya mereka ke pasar perangkat keras AI dengan chip AI200 dan AI250 yang inovatif

Pivot Arsitektural yang Berani ke Memori Mobile

Penyimpangan Qualcomm yang paling signifikan dari konvensi terletak pada arsitektur memorinya. Sementara pesaing seperti NVIDIA dan AMD mengandalkan High Bandwidth Memory (HBM) untuk throughput data yang sangat besar, chip AI baru Qualcomm dilengkapi dengan memori LPDDR hingga 768 GB. Pendekatan near-memory ini merupakan taruhan yang diperhitungkan untuk kebutuhan spesifik inferensi AI, di mana ukuran model yang masif dan kapasitas memori bisa menjadi lebih kritis daripada bandwidth mentah. Perusahaan tersebut mengunggulkan beberapa keuntungan kunci untuk desain ini, termasuk efisiensi daya yang lebih unggul dengan konsumsi per bit yang lebih rendah, profil biaya yang lebih menarik dibandingkan dengan modul HBM yang mahal, dan kepadatan memori yang lebih tinggi yang ideal untuk menahan model AI besar yang siap untuk tugas inferensi. Lebih lanjut, memori LPDDR menghasilkan panas yang lebih sedikit daripada HBM, berkontribusi pada efisiensi termal yang lebih baik dalam ruang terbatas yang padat di dalam rak server.

Spesifikasi & Perbandingan Qualcomm AI Accelerator

Fitur Qualcomm AI200/AI250 Konteks Industri
Tipe Memori LPDDR (Turunan Mobile) HBM (misalnya, pada GPU NVIDIA/AMD)
Memori Maksimal Hingga 768 GB Lebih rendah dari 768 GB pada akselerator pesaing
Target Beban Kerja AI Inferencing AI Training & Inferencing
Keunggulan Utama Efisiensi daya, biaya, densitas memori tinggi Bandwidth memori tinggi
Kekurangan Utama Bandwidth lebih rendah, belum terbukti dalam penggunaan server 24/7 Biaya lebih tinggi, konsumsi daya
Konsumsi Daya Rack ~160 kW Sebanding dengan rack NVIDIA GB300
Ketersediaan AI200: 2026, AI250: 2027 -

Menargetkan Pasar Inferensi AI dengan Solusi Skala Rak

AI200 dan AI250 bukan hanya chip individu tetapi dirancang sebagai blok pembangun untuk solusi inferensi skala rak yang lengkap. Ini memposisikan Qualcomm langsung melawan pemain mapan yang menawarkan sistem terintegrasi serupa. Poin penjualan utama adalah konsumsi daya sistem, dengan satu rak penuh mengonsumsi daya sekitar 160 kW. Angka ini kompetitif dengan solusi modern seperti rak GB300 NVIDIA, yang menunjukkan Qualcomm serius tentang kesetaraan kinerja di domain targetnya. Chip-chip ini memanfaatkan Hexagon Neural Processing Units (NPU) proprietary Qualcomm, yang telah berevolusi dalam platform mobile dan PC-nya, dan kini ditingkatkan untuk beban kerja data center. NPU ini mendukung format data lanjutan dan dioptimalkan khusus untuk pola komputasi inferensi, daripada beban kerja pelatihan yang lebih bersifat general-purpose.

Pertukaran yang Dihitung dengan Keterbatasan Inheren

Pendekatan inovatif ini tidak datang tanpa kompromi. Dengan mengabaikan HBM, solusi Qualcomm secara inheren menghadapi bandwidth memori yang lebih rendah dan latensi yang berpotensi lebih tinggi karena antarmuka LPDDR yang lebih sempit dibandingkan dengan HBM. Karakteristik fundamental ini membuat rak AI200 dan AI250 kurang cocok untuk tuntutan komputasi intensif dari pelatihan model AI. Kekuatan mereka terletak pada menjalankan model yang telah dilatih sebelumnya secara efisien, sebuah segmen yang diyakini Qualcomm siap untuk pertumbuhan masif. Poin pertimbangan lainnya adalah penggunaan memori kelas mobile di lingkungan server data center yang menuntut, beroperasi 24/7 dengan suhu tinggi, sebuah domain di mana keandalan jangka panjangnya kurang terbukti dibandingkan memori server khusus.

Kompetisi yang Semakin Ketat di Ruang Perangkat Keras AI

Masuknya Qualcomm menandakan fragmentasi lebih lanjut dari pasar akselerator AI, bergabung dengan pemain lain seperti Intel yang juga meluncurkan solusi inferensi khusus. Industri mulai menyadari bahwa pendekatan satu-untuk-semua menggunakan GPU yang dioptimalkan untuk pelatihan untuk setiap tugas mungkin bukan jalur yang paling efisien ke depan. Dengan fokus pada inferensi dengan arsitektur perangkat keras yang unik, Qualcomm bertaruh bahwa porsi signifikan dari komputasi AI di masa depan akan didedikasikan untuk melayani model daripada menciptakannya. Ketersediaan komersial AI200 dijadwalkan untuk tahun 2026, dengan AI250 menyusul pada tahun 2027, memberi pasar waktu untuk mengevaluasi klaim kontender baru ini tentang kinerja-per-dolar yang unggul.