AMD Meluncurkan Instinct MI400 dengan Performa 40 PFLOPs dan Memori 432GB HBM4, CEO OpenAI Mendukung Peluncuran 2026

BigGo Editorial Team
AMD Meluncurkan Instinct MI400 dengan Performa 40 PFLOPs dan Memori 432GB HBM4, CEO OpenAI Mendukung Peluncuran 2026

AMD membuat pernyataan berani di pasar akselerator AI dengan seri Instinct MI400 yang akan datang, menjanjikan untuk menggandakan performa komputasi sambil memperkenalkan teknologi memori terdepan. Pengumuman ini datang saat perusahaan berusaha menantang dominasi NVIDIA di pasar GPU pusat data, dengan CEO OpenAI Sam Altman secara personal mendukung spesifikasi yang ambisius tersebut.

Lompatan Performa Revolusioner dengan Kemampuan 40 PFLOPs

Instinct MI400 mewakili kemajuan arsitektur yang signifikan, menghadirkan 40 PFLOPs performa komputasi FP4 dan 20 PFLOPs performa FP8. Ini menandai penggandaan lengkap kemampuan komputasi dibandingkan dengan seri MI350 saat ini. Akselerator ini akan menampilkan hingga empat XCD (Accelerated Compute Dies) di dua AID (Active Interposer Dies), peningkatan substansial dari konfigurasi dua XCD per AID yang ditemukan pada generasi MI300. Arsitektur yang ditingkatkan ini akan dibangun pada platform CDNA-Next AMD, yang mungkin pada akhirnya akan diubah namanya menjadi UDNA sebagai bagian dari strategi perusahaan untuk menyatukan arsitektur RDNA dan CDNA-nya.

Perbandingan Performa AMD Instinct MI400 vs MI350

Spesifikasi MI400 (2026) MI350 (2025) Peningkatan
Komputasi FP4 40 PFLOPs 20 PFLOPs 2x
Komputasi FP8 20 PFLOPs 10 PFLOPs 2x
Kapasitas Memori 432GB HBM4 288GB HBM3e Peningkatan 50%
Bandwidth Memori 19.6 TB/s 8.0 TB/s 2.45x
XCDs per Akselerator 8 (4 per AID) 8 (4 per AID) Sama
AIDs per Akselerator 2 2 Sama

Teknologi Memori HBM4 Menghadirkan Bandwidth yang Belum Pernah Ada

Performa memori mendapat dorongan dramatis dengan integrasi teknologi HBM4, menyediakan 432GB memori berkecepatan tinggi dibandingkan dengan konfigurasi HBM3e 288GB pada MI350. Peningkatan bandwidth bahkan lebih mengesankan, melompat dari 8TB/s menjadi luar biasa 19,6TB/s—mewakili peningkatan lebih dari 2,4x. Peningkatan bandwidth memori yang masif ini mengatasi salah satu hambatan kritis dalam beban kerja AI, khususnya untuk tugas inferensi yang memerlukan akses cepat ke model bahasa besar. MI400 juga akan menampilkan bandwidth scale-out 300GB/s per GPU, memungkinkan komunikasi efisien dalam deployment skala besar.

Sistem Helios Rack-Scale Menargetkan Deployment Enterprise

AMD memposisikan MI400 dalam sistem Helios rack-scale yang komprehensif, dirancang untuk berfungsi sebagai platform komputasi terpadu daripada komponen diskrit individual. CEO Lisa Su menekankan bahwa ini mewakili pertama kalinya AMD merancang setiap komponen rack sebagai sistem terpadu tunggal. Pendekatan ini bersaing langsung dengan sistem rack Vera Rubin NVIDIA yang akan datang dan mengatasi kebutuhan pelanggan hyperscale yang memerlukan integrasi mulus di seluruh kluster pusat data. Sistem ini menggunakan teknologi jaringan open-source UALink alih-alih solusi proprietary, berpotensi menawarkan pelanggan lebih banyak fleksibilitas dan mengurangi vendor lock-in.

Kemitraan OpenAI Menandakan Validasi Industri

Kehadiran CEO OpenAI Sam Altman bersama Lisa Su dalam pengumuman tersebut memberikan kredibilitas industri yang signifikan untuk strategi AI AMD. Dukungan Altman, di mana dia mengakui skeptisisme awal tentang spesifikasi sebelum menyebutnya luar biasa, menunjukkan bahwa perusahaan AI besar sedang serius mempertimbangkan alternatif untuk ekosistem NVIDIA. Keterlibatan OpenAI dalam memberikan umpan balik untuk roadmap MI400 menunjukkan kemitraan yang lebih dalam yang dapat mempengaruhi desain akhir akselerator dan optimisasi untuk beban kerja AI dunia nyata.

Strategi Harga Kompetitif Menargetkan Pertumbuhan Pangsa Pasar

AMD memposisikan seri MI400 sebagai alternatif yang hemat biaya untuk penawaran NVIDIA, dengan eksekutif perusahaan menunjukkan harga agresif yang dirancang untuk merebut pangsa pasar. Perusahaan mengklaim pendahulunya MI355X sudah menghadirkan 40% lebih banyak token per dolar dibandingkan chip pesaing, terutama karena konsumsi daya yang lebih rendah. Keunggulan biaya ini menjadi sangat signifikan mengingat GPU pusat data dapat berharga puluhan ribu dolar per chip, dan perusahaan cloud biasanya membelinya dalam jumlah besar. Integrasi CPU AMD sendiri dan chip jaringan dari akuisisi Pensando ke dalam solusi rack lengkap dapat memberikan manfaat biaya tambahan dan peluang pendapatan di berbagai lini produk.

Roadmap AMD Instinct Accelerator

Model Arsitektur Tahun Peluncuran Memori Performa FP8 Fitur Utama
MI250X CDNA 2 2021 128GB HBM2e N/A Generasi pertama
MI300X CDNA 3 2023 192GB HBM3 2.6 PFLOPs Desain terobosan
MI325X CDNA 3 2024 256GB HBM3e 2.6 PFLOPs Memori yang ditingkatkan
MI350X CDNA 4 2025 288GB HBM3e 10 PFLOPs Generasi saat ini
MI400 CDNA-Next/UDNA 2026 432GB HBM4 20 PFLOPs Arsitektur generasi berikutnya
MI500 UDNA TBD TBD TBD Roadmap masa depan

Timeline Peluncuran 2026 Selaras dengan Ekspansi Pasar

Seri MI400 dijadwalkan diluncurkan pada 2026, memposisikannya untuk memanfaatkan ekspansi yang diproyeksikan dari pasar chip AI, yang AMD perkirakan akan melebihi 500 miliar dolar Amerika pada 2028. Timeline ini memungkinkan perusahaan untuk memanfaatkan proses manufaktur canggih dan teknologi memori HBM4 yang matang sambil bersaing dengan penawaran generasi berikutnya NVIDIA. Irama rilis tahunan mewakili pergeseran dari siklus dua tahun tradisional, mencerminkan persaingan ketat dan kemajuan teknologi yang cepat di ruang akselerator AI.