AMD membuat pernyataan berani di pasar akselerator AI dengan seri Instinct MI400 yang akan datang, menjanjikan untuk menggandakan performa komputasi sambil memperkenalkan teknologi memori terdepan. Pengumuman ini datang saat perusahaan berusaha menantang dominasi NVIDIA di pasar GPU pusat data, dengan CEO OpenAI Sam Altman secara personal mendukung spesifikasi yang ambisius tersebut.
Lompatan Performa Revolusioner dengan Kemampuan 40 PFLOPs
Instinct MI400 mewakili kemajuan arsitektur yang signifikan, menghadirkan 40 PFLOPs performa komputasi FP4 dan 20 PFLOPs performa FP8. Ini menandai penggandaan lengkap kemampuan komputasi dibandingkan dengan seri MI350 saat ini. Akselerator ini akan menampilkan hingga empat XCD (Accelerated Compute Dies) di dua AID (Active Interposer Dies), peningkatan substansial dari konfigurasi dua XCD per AID yang ditemukan pada generasi MI300. Arsitektur yang ditingkatkan ini akan dibangun pada platform CDNA-Next AMD, yang mungkin pada akhirnya akan diubah namanya menjadi UDNA sebagai bagian dari strategi perusahaan untuk menyatukan arsitektur RDNA dan CDNA-nya.
Perbandingan Performa AMD Instinct MI400 vs MI350
Spesifikasi | MI400 (2026) | MI350 (2025) | Peningkatan |
---|---|---|---|
Komputasi FP4 | 40 PFLOPs | 20 PFLOPs | 2x |
Komputasi FP8 | 20 PFLOPs | 10 PFLOPs | 2x |
Kapasitas Memori | 432GB HBM4 | 288GB HBM3e | Peningkatan 50% |
Bandwidth Memori | 19.6 TB/s | 8.0 TB/s | 2.45x |
XCDs per Akselerator | 8 (4 per AID) | 8 (4 per AID) | Sama |
AIDs per Akselerator | 2 | 2 | Sama |
Teknologi Memori HBM4 Menghadirkan Bandwidth yang Belum Pernah Ada
Performa memori mendapat dorongan dramatis dengan integrasi teknologi HBM4, menyediakan 432GB memori berkecepatan tinggi dibandingkan dengan konfigurasi HBM3e 288GB pada MI350. Peningkatan bandwidth bahkan lebih mengesankan, melompat dari 8TB/s menjadi luar biasa 19,6TB/s—mewakili peningkatan lebih dari 2,4x. Peningkatan bandwidth memori yang masif ini mengatasi salah satu hambatan kritis dalam beban kerja AI, khususnya untuk tugas inferensi yang memerlukan akses cepat ke model bahasa besar. MI400 juga akan menampilkan bandwidth scale-out 300GB/s per GPU, memungkinkan komunikasi efisien dalam deployment skala besar.
Sistem Helios Rack-Scale Menargetkan Deployment Enterprise
AMD memposisikan MI400 dalam sistem Helios rack-scale yang komprehensif, dirancang untuk berfungsi sebagai platform komputasi terpadu daripada komponen diskrit individual. CEO Lisa Su menekankan bahwa ini mewakili pertama kalinya AMD merancang setiap komponen rack sebagai sistem terpadu tunggal. Pendekatan ini bersaing langsung dengan sistem rack Vera Rubin NVIDIA yang akan datang dan mengatasi kebutuhan pelanggan hyperscale yang memerlukan integrasi mulus di seluruh kluster pusat data. Sistem ini menggunakan teknologi jaringan open-source UALink alih-alih solusi proprietary, berpotensi menawarkan pelanggan lebih banyak fleksibilitas dan mengurangi vendor lock-in.
Kemitraan OpenAI Menandakan Validasi Industri
Kehadiran CEO OpenAI Sam Altman bersama Lisa Su dalam pengumuman tersebut memberikan kredibilitas industri yang signifikan untuk strategi AI AMD. Dukungan Altman, di mana dia mengakui skeptisisme awal tentang spesifikasi sebelum menyebutnya luar biasa, menunjukkan bahwa perusahaan AI besar sedang serius mempertimbangkan alternatif untuk ekosistem NVIDIA. Keterlibatan OpenAI dalam memberikan umpan balik untuk roadmap MI400 menunjukkan kemitraan yang lebih dalam yang dapat mempengaruhi desain akhir akselerator dan optimisasi untuk beban kerja AI dunia nyata.
Strategi Harga Kompetitif Menargetkan Pertumbuhan Pangsa Pasar
AMD memposisikan seri MI400 sebagai alternatif yang hemat biaya untuk penawaran NVIDIA, dengan eksekutif perusahaan menunjukkan harga agresif yang dirancang untuk merebut pangsa pasar. Perusahaan mengklaim pendahulunya MI355X sudah menghadirkan 40% lebih banyak token per dolar dibandingkan chip pesaing, terutama karena konsumsi daya yang lebih rendah. Keunggulan biaya ini menjadi sangat signifikan mengingat GPU pusat data dapat berharga puluhan ribu dolar per chip, dan perusahaan cloud biasanya membelinya dalam jumlah besar. Integrasi CPU AMD sendiri dan chip jaringan dari akuisisi Pensando ke dalam solusi rack lengkap dapat memberikan manfaat biaya tambahan dan peluang pendapatan di berbagai lini produk.
Roadmap AMD Instinct Accelerator
Model | Arsitektur | Tahun Peluncuran | Memori | Performa FP8 | Fitur Utama |
---|---|---|---|---|---|
MI250X | CDNA 2 | 2021 | 128GB HBM2e | N/A | Generasi pertama |
MI300X | CDNA 3 | 2023 | 192GB HBM3 | 2.6 PFLOPs | Desain terobosan |
MI325X | CDNA 3 | 2024 | 256GB HBM3e | 2.6 PFLOPs | Memori yang ditingkatkan |
MI350X | CDNA 4 | 2025 | 288GB HBM3e | 10 PFLOPs | Generasi saat ini |
MI400 | CDNA-Next/UDNA | 2026 | 432GB HBM4 | 20 PFLOPs | Arsitektur generasi berikutnya |
MI500 | UDNA | TBD | TBD | TBD | Roadmap masa depan |
Timeline Peluncuran 2026 Selaras dengan Ekspansi Pasar
Seri MI400 dijadwalkan diluncurkan pada 2026, memposisikannya untuk memanfaatkan ekspansi yang diproyeksikan dari pasar chip AI, yang AMD perkirakan akan melebihi 500 miliar dolar Amerika pada 2028. Timeline ini memungkinkan perusahaan untuk memanfaatkan proses manufaktur canggih dan teknologi memori HBM4 yang matang sambil bersaing dengan penawaran generasi berikutnya NVIDIA. Irama rilis tahunan mewakili pergeseran dari siklus dua tahun tradisional, mencerminkan persaingan ketat dan kemajuan teknologi yang cepat di ruang akselerator AI.