Samsung dan SK Hynix Akan Mulai Produksi Massal HBM4 pada Februari 2026, Menargetkan Perangkat Keras AI Generasi Berikutnya

Tim Editorial BigGo
Samsung dan SK Hynix Akan Mulai Produksi Massal HBM4 pada Februari 2026, Menargetkan Perangkat Keras AI Generasi Berikutnya

Perlombaan untuk menghidupkan generasi kecerdasan buatan berikutnya semakin memanas di sektor memori. Menurut laporan dari media Korea Selatan, dua pembuat chip memori terkemuka dunia, Samsung dan SK Hynix, bersiap untuk memulai produksi massal chip High Bandwidth Memory (HBM4) generasi berikutnya secara bersamaan pada Februari 2026. Peluncuran terkoordinasi ini menandai tonggak penting, karena ini merupakan pertama kalinya industri semikonduktor memori global akan melihat transisi yang tersinkronisasi ke standar HBM baru. Langkah ini didorong oleh permintaan yang tak terpuaskan dari raksasa AI seperti Nvidia dan Google, yang sudah mengantri sebagai pelanggan utama untuk memori canggih ini, yang penting untuk melatih model AI yang semakin kompleks.

Konteks Pasar yang Dilaporkan: Isu industri mengindikasikan kapasitas produksi HBM dari Samsung dan SK Hynix untuk tahun mendatang telah terjual habis, dengan perusahaan-perusahaan AI besar (Amazon, Google, Microsoft, OpenAI) bersaing untuk mendapatkan pasokan.

Garis Waktu Produksi Februari 2026

Baik Samsung maupun SK Hynix dilaporkan telah memfinalisasi rencana mereka untuk memulai manufaktur volume tinggi HBM4 pada bulan kedua tahun 2026. SK Hynix akan memulai produksi di fasilitas utamanya di Korea Selatan, khususnya pabrik M16 di Icheon, Provinsi Gyeonggi, dan pabrik M15X di Cheongju. Tidak mau kalah, Samsung akan memulai lini produksi HBM4-nya sendiri pada waktu yang sama di kampus Pyeongtaek-nya. Start yang tersinkronisasi ini tidak biasa dalam industri semikonduktor yang kompetitif dan menekankan permintaan yang kritis dan sensitif waktu dari pelanggan utama mereka. Ini menandakan bahwa kedua perusahaan telah mencapai tingkat kematangan teknologi dan kepercayaan yield yang cukup untuk berkomitmen pada garis waktu yang agresif ini.

Mulai Produksi HBM4 & Detail Utama:

Perusahaan Mulai Produksi Massal Lokasi Produksi Utama Pendekatan Teknis / Mitra Klaim Kinerja
Samsung Februari 2026 Pyeongtaek Campus, Korea Selatan In-house "Turnkey" dengan proses 10nm Laju data 11.7 Gbps
SK Hynix Februari 2026 M16 (Icheon) & M15X (Cheongju), Korea Selatan Kolaborasi dengan TSMC menggunakan proses 12nm Bandwidth 2x, efisiensi >40% lebih baik vs. HBM3E

HBM4: Pergeseran Menuju Kustomisasi dan Kinerja

Transisi ke HBM4 digambarkan sebagai lebih dari sekadar peningkatan iteratif sederhana. Analis industri mencatat bahwa ini mewakili pergeseran penting menuju solusi memori yang sangat disesuaikan dan dirancang untuk arsitektur akselerator AI tertentu. Strategi SK Hynix melibatkan kolaborasi dengan pemimpin foundry TSMC. Untuk HBM4-nya, SK Hynix akan memanfaatkan teknologi proses 12nm TSMC untuk die dasarnya, sebuah langkah yang diharapkan memberikan lompatan besar dalam kinerja. Perusahaan mengklaim pendekatan ini akan menggandakan bandwidth dibandingkan dengan generasi HBM3E sebelumnya sambil meningkatkan efisiensi daya lebih dari 40%.

Strategi Kompetitif Samsung dengan Teknologi 10nm

Samsung, sebaliknya, mengejar jalur teknis yang berbeda untuk bersaing. Perusahaan ini memanfaatkan kemampuan manufaktur "Turnkey" terintegrasinya dan mendorong teknologi prosesnya sendiri ke depan. Samsung telah memutuskan untuk mengadopsi proses kelas 10nm yang lebih maju untuk chip HBM4-nya. Berdasarkan evaluasi internal, ini memungkinkan Samsung mencapai kecepatan transfer data 11,7 gigabit per detik (Gbps), yang diklaimnya sebagai angka terdepan di industri untuk HBM4. Keyakinan akan kinerja ini disebut sebagai alasan utama Samsung merasa nyaman menyelaraskan jadwal produksi massalnya dengan garis waktu yang lebih awal dari pesaingnya.

Pelanggan Utama: Rubin Nvidia dan TPU v7 Google

Tujuan dari chip memori baru ini sudah jelas. Laporan tersebut menunjukkan bahwa sebagian besar output awal HBM4 Samsung diperuntukkan bagi platform akselerator AI generasi berikutnya Nvidia, dengan nama kode "Vera Rubin", yang dijadwalkan rilis pada paruh kedua tahun 2026. Lebih lanjut, sebagian pasokan HBM4 Samsung akan diarahkan ke Google, di mana ia akan diintegrasikan ke dalam Tensor Processing Unit (TPU) generasi ketujuh dari raksasa pencarian tersebut. Ini mengonfirmasi bahwa gelombang berikutnya dari perangkat keras AI unggulan dari dua perusahaan paling berpengaruh di sektor ini akan dibangun di atas memori HBM4.

Pelanggan Utama untuk Pasokan Awal HBM4:

  • Nvidia: Untuk sistem akselerator AI generasi berikutnya "Vera Rubin" (rencana rilis H2 2026).
  • Google: Untuk integrasi ke dalam Tensor Processing Unit (TPU) generasi ketujuh mereka.

Industri AI yang Menghadapi Kendala Pasokan

Kebutuhan mendesak di balik peningkatan produksi ini dipicu oleh pasar di mana permintaan jauh melampaui pasokan. Rumor industri sebelumnya telah menyiratkan bahwa kapasitas produksi HBM gabungan Samsung dan SK Hynix untuk tahun mendatang sudah sepenuhnya dipesan. Perusahaan-perusahaan cloud dan AI besar, termasuk Amazon, Google, Microsoft, dan OpenAI, terlibat dalam persaingan sengit untuk mengamankan chip memori berbandwidth tinggi sebanyak mungkin. Kelangkaan ini menyoroti potensi hambatan untuk pengembangan AI, di mana kemajuan dalam kompleksitas dan kemampuan model bisa dibatasi oleh ketersediaan memori canggih seperti HBM4. Oleh karena itu, awal produksi Februari 2026 adalah tanggal kritis di kalender untuk seluruh ekosistem AI.