Dalam langkah yang menegaskan pergeseran prioritas industri kecerdasan buatan, Nvidia dilaporkan telah mengamankan kesepakatan bersejarah dengan startup chip AI Groq. Bernilai sekitar 20 miliar dolar AS, kesepakatan ini disusun bukan sebagai akuisisi tradisional melainkan sebagai perjanjian lisensi teknologi dan perekrutan talenta secara strategis, yang memberikan Nvidia akses ke tim inti teknik Groq dan teknologi inferensi latensi rendah perintisnya. Transaksi ini, yang muncul tepat setelah liburan Natal di AS, menandakan strategi agresif Nvidia untuk memperkuat posisinya saat pasar AI berubah secara tegas dari pelatihan model ke aplikasi dan inferensi waktu nyata.
Struktur Kesepakatan Strategis yang Tidak Konvensional
Menurut beberapa laporan, Nvidia telah setuju untuk membayar sekitar 20 miliar dolar AS secara tunai untuk melisensikan teknologi dari Groq dan merekrut personel teknik kuncinya, termasuk pendiri dan CEO Jonathan Ross serta Presiden Sunny Madra. Patut dicatat, kesepakatan ini dirumuskan sebagai "perjanjian lisensi non-eksklusif," dengan Groq terus beroperasi sebagai perusahaan independen di bawah petugas keuangannya. Struktur ini, yang semakin umum di kalangan raksasa teknologi, memungkinkan akuisisi cepat atas talenta dan kekayaan intelektual yang diidamkan sekaligus berpotensi mengurangi pengawasan antitrust yang panjang. Kesepakatan ini diselesaikan sekitar 27 Desember 2025, setelah hari perdagangan singkat di AS karena liburan Natal, dengan Nvidia memilih untuk tidak mengeluarkan siaran pers resmi—sebuah bukti atas skala dan kepercayaan diri raksasa chip tersebut.
Struktur Kesepakatan: Lisensi teknologi non-eksklusif dan akuisisi bakat. Groq tetap menjadi perusahaan independen.
Menghadapi Titik "Infleksi Inferensi"
Waktu dan investasi kolosal ini terkait langsung dengan pergeseran pasar yang mendasar. Data industri dari TrendForce dan MLCommons menunjukkan bahwa tahun 2025 menandai titik balik bersejarah, di mana pendapatan dari beban kerja inferensi AI (52,3%) untuk pertama kalinya melampaui pendapatan dari pelatihan. "Infleksi inferensi" ini menciptakan permintaan yang melonjak untuk prosesor yang dioptimalkan bukan untuk daya komputasi paralel mentah, tetapi untuk latensi rendah, efisiensi energi tinggi, dan waktu respons deterministik—area di mana Language Processing Unit (LPU) khusus Groq unggul. Sementara GPU Nvidia mendominasi lanskap pelatihan, arsitekturnya menghadapi tantangan dalam fase dekode inferensi, di mana pembuatan token secara berurutan dapat terhambat oleh bandwidth memori.
Konteks Pasar (2025): Pendapatan beban kerja AI inference (52,3%) melampaui pendapatan pelatihan untuk pertama kalinya (Sumber: TrendForce/MLCommons).
LPU Groq: Spesialis Kecepatan
Proposisi nilai inti Groq terletak pada arsitektur LPU-nya, yang dirancang khusus untuk inferensi yang sangat cepat. Tidak seperti GPU yang mengandalkan memori berbandwidth tinggi (HBM) yang terletak di luar die komputasi utama, LPU Groq memanfaatkan SRAM on-chip yang substansial. Desain ini menghilangkan kebutuhan untuk mengambil data dari memori eksternal untuk setiap siklus komputasi selama pembuatan token, menghasilkan latensi yang jauh lebih rendah. Tolok ukur menunjukkan LPU Groq mencapai kecepatan pembuatan token 300-500 token per detik, secara signifikan melampaui GPU kontemporer dan sirkuit terintegrasi khusus aplikasi (ASIC) lainnya dalam throughput murni untuk tugas ini. Namun, kecepatan ini datang dengan kompromi: satu chip LPU hanya memiliki 230MB memori on-chip, sehingga memerlukan penggunaan ratusan chip yang saling terhubung untuk menjalankan model bahasa besar seperti Llama-3 70B, dibandingkan dengan hanya segelintir GPU berkapasitas memori tinggi.
Spesifikasi Kunci Groq LPU (vs. Nvidia GPU):
- Memori: ~230 MB SRAM on-chip (LPU) vs. 141 GB HBM3e (Nvidia H200 GPU).
- Fokus Arsitektur: Dioptimalkan untuk pembuatan token berurutan dengan latensi rendah (decode).
- Kinerja yang Dilaporkan: Kecepatan pembuatan 300-500 token/detik untuk inferensi pengguna tunggal.
Langkah Bertahan dan Menyerang bagi Nvidia
Analis melihat kesepakatan ini sebagai langkah strategis yang brilian dalam persaingan. Di satu sisi, ini adalah manuver bertahan untuk menetralisir ancaman potensial. Kesuksesan alternatif seperti Tensor Processing Unit (TPU) Google telah menunjukkan bahwa GPU bukanlah satu-satunya jalur yang layak untuk komputasi AI. LPU Groq, dengan kecepatan inferensi superiornya, mewakili jalur yang jelas bagi pesaing untuk mengikis dominasi Nvidia di pasar inferensi yang sedang berkembang pesat. Dengan membawa tim dan teknologi Groq ke dalam perusahaan, Nvidia secara efektif memvaksinasi dirinya sendiri terhadap risiko disruptif ini. Di sisi lain, ini adalah ekspansi ofensif yang agresif. Kesepakatan ini memungkinkan Nvidia untuk segera memperkuat tumpukan inferensinya, menawarkan produk masa depan yang dapat menggabungkan kekuatan pemrosesan paralel GPU untuk fase "prefill" dengan kemampuan dekode secepat kilat dari desain yang terinspirasi LPU, menciptakan ekosistem perangkat keras AI yang lebih komprehensif dan tak terkalahkan.
Ekonomi Baru Perangkat Keras AI
Kesepakatan Groq juga menyoroti realitas ekonomi yang berkembang dalam infrastruktur AI. Bisnis GPU unggulan ber margin tinggi yang mendorong ledakan pelatihan kini dilengkapi oleh pasar inferensi, yang oleh analis digambarkan sebagai usaha volume tinggi dengan margin lebih rendah. Pelanggan kini menunjukkan kesediaan untuk membayar premi untuk kecepatan inferensi dan jaminan latensi, permintaan yang berhasil dimonetisasi oleh Groq. Bagi Nvidia, ini mewakili aliran pendapatan baru sekaligus adaptasi yang diperlukan. Seiring fokus AI beralih ke penyebaran dan aplikasi yang berorientasi pengguna, menang dalam inferensi menjadi kritis untuk mempertahankan kepemimpinan secara keseluruhan. Cadangan kas besar Nvidia, yang mencapai 60,6 miliar dolar AS per Oktober 2025, memberikan daya tembak untuk taruhan strategis semacam itu, memastikannya dapat membentuk era berikutnya dari perangkat keras AI alih-alih terganggu olehnya.
Posisi Kas Nvidia (Okt 2025): USD 60,6 miliar dalam bentuk kas dan investasi jangka pendek.
Jalan ke Depan dan Pertanyaan yang Belum Terjawab
Meskipun alasan strategisnya jelas, beberapa detail masih belum terselesaikan. Sifat non-eksklusif dari perjanjian lisensi memunculkan pertanyaan tentang apakah kekayaan intelektual LPU Groq masih dapat dilisensikan kepada pesaing Nvidia. Lebih lanjut, nasib bisnis cloud Groq yang masih baru dan bagaimana interaksinya dengan layanan Nvidia sendiri masih belum pasti. Industri akan mengawasi dengan cermat komentar dari CEO Nvidia Jensen Huang, kemungkinan pada acara CES mendatang di Las Vegas pada 5 Januari 2026. Yang tak terbantahkan adalah bahwa dengan langkah 20 miliar dolar AS ini, Nvidia tidak hanya mengakuisisi sebuah perusahaan; ia telah melakukan investasi tegas dalam mendefinisikan standar infrastruktur untuk era AI waktu nyata yang kini telah benar-benar dimulai.
