Nvidia Restrukturisasi DGX Cloud, Alihkan Fokus dari Kompetisi Cloud Publik ke R&D Internal

Tim Editorial BigGo
Nvidia Restrukturisasi DGX Cloud, Alihkan Fokus dari Kompetisi Cloud Publik ke R&D Internal

Dalam sebuah perubahan strategi yang signifikan, Nvidia telah mereorganisasi unit komputasi awannya, secara efektif mengurangi ambisinya untuk mengoperasikan layanan cloud publik yang akan bersaing langsung dengan raksasa seperti Amazon Web Services (AWS) dan Microsoft Azure. Langkah ini, yang dilaporkan oleh The Information dan dikonfirmasi oleh restrukturisasi internal, menandai pergeseran yang tegas untuk layanan DGX Cloud kurang dari tiga tahun setelah peluncurannya yang mendapat sorotan tinggi. Keputusan ini menggarisbawahi dinamika kompleks antara pemasok perangkat keras dominan dan pelanggan terbesarnya, yang juga merupakan pesaing potensialnya di arena layanan cloud.

Nvidia Reorganisasi Tim Cloud, Gabungkan DGX Cloud ke dalam Divisi Teknik

Nvidia secara resmi telah merestrukturisasi grup komputasi cloud-nya, menggabungkan bisnis DGX Cloud ke dalam organisasi teknik intinya. Unit tersebut kini berada di bawah kepemimpinan Senior Vice President Dwight Diercks, yang mengawasi rekayasa perangkat lunak. Reorganisasi ini, yang terjadi pada minggu menjelang liburan Natal di Amerika Serikat, mewakili pengurangan formal dari visi awal Nvidia untuk DGX Cloud sebagai platform cloud berbrand yang berhadapan langsung dengan publik. Perusahaan sebenarnya telah memberi sinyal perubahan arah pada September 2025, mengumumkan akan berhenti mencoba bersaing langsung dengan AWS dan Azure. Langkah terbaru ini memperkuat fokus baru tersebut, mentransisikan DGX Cloud dari produk yang berhadapan dengan pelanggan menjadi alat internal untuk penelitian dan pengembangan Nvidia sendiri.

Visi Awal dan Tantangan Praktis DGX Cloud

Diluncurkan pada awal 2023, DGX Cloud dirancang sebagai ekspansi ambisius Nvidia ke pasar layanan cloud. Layanan ini bertujuan untuk mengabstraksikan superkomputer AI DGX yang kuat milik perusahaan menjadi layanan terkelola, yang dihosting di infrastruktur dari mitra termasuk AWS, Google Cloud, Oracle Cloud, dan Microsoft Azure. Layanan ini menawarkan kluster khusus untuk perusahaan yang didukung oleh GPU H100 Nvidia dengan tumpukan perangkat lunak AI Nvidia lengkap yang telah terpasang sebelumnya, menjanjikan jalur yang lebih efisien untuk komputasi AI mutakhir. Namun, model ini menghadapi kendala yang signifikan dalam praktiknya. Harga seringkali lebih tinggi dibandingkan instans GPU yang setara dari hyperscaler, integrasi dengan rangkaian alat cloud yang ada tidak konsisten, dan model dukungan terpisah antara Nvidia dan mitra hostingnya menciptakan kompleksitas operasional bagi pelanggan.

Mitra Hosting DGX Cloud (Model Asli): AWS, Google Cloud, Oracle Cloud, Microsoft Azure.

Menghindari Konflik Saluran dengan Pelanggan Hyperscaler Kunci

Pendorong utama di balik penarikan strategis ini adalah kebutuhan untuk menghindari konflik saluran dengan pelanggan terpenting Nvidia. Penyedia cloud seperti AWS, Microsoft, Google, dan Oracle mewakili porsi besar dari pendapatan rekor pusat data Nvidia. Dengan mengoperasikan layanan cloud pihak pertama, Nvidia berisiko menjadi pesaing langsung bagi perusahaan-perusahaan ini, yang berkomitmen miliaran dolar untuk membeli GPU-nya. Gesekan ini dianggap kontraproduktif. Reorganisasi ini menyelaraskan kepentingan Nvidia lebih jelas dengan mitranya, memposisikan DGX Cloud sebagai platform pengembangan dan validasi yang pada akhirnya membantu hyperscaler menerapkan perangkat keras Nvidia dengan lebih efektif, alih-alih sebagai layanan saingan.

Peran Baru: Platform Internal untuk Pengembangan AI dan Silikon

Dengan mandat barunya, DGX Cloud akan berfungsi sebagai platform internal yang kritis bagi para insinyur Nvidia. Fungsi utamanya sekarang akan mencakup pengembangan model AI, validasi perangkat lunak, serta pengujian pra-silikon dan pasca-silikon untuk platform GPU mendatang seperti seri Blackwell yang dinantikan. Strategi "tempat uji internal" ini memungkinkan Nvidia untuk mensimulasikan beban kerja AI yang menuntut dalam skala besar untuk mengidentifikasi hambatan perangkat keras dan lunak, mempercepat siklus iterasi produknya sendiri. Pergeseran ini memanfaatkan kemampuan platform untuk secara langsung memperkuat kompetensi inti Nvidia dalam desain chip dan sistem, mengubah upaya komersial eksternal menjadi alat R&D internal yang ampuh.

Realitas Ekonomi dan Lanskap Silikon Hyperscaler

Mengoperasikan platform cloud global yang kompetitif adalah upaya yang membutuhkan modal intensif, memerlukan investasi berkelanjutan yang masif dalam pusat data, jaringan, dan operasi—area di luar keahlian inti Nvidia dalam silikon dan perangkat lunak. Selain itu, mitra hyperscaler yang menghosting DGX Cloud telah secara agresif mengembangkan silikon AI kustom mereka sendiri, seperti Trainium milik AWS, TPU milik Google, dan chip Maia milik Microsoft, untuk mengelola biaya dan risiko pasokan. Meskipun perusahaan-perusahaan ini masih sangat bergantung pada GPU Nvidia untuk AI mutakhir, lanskap kompetitif membuat kelangsungan jangka panjang layanan cloud pihak pertama Nvidia menjadi tidak pasti. Mundur dari ruang ini memungkinkan Nvidia untuk memusatkan sumber dayanya pada mempertahankan kepemimpinan arsitekturnya.

Laporan Kesepakatan Sewa-Balik GPU: Nvidia menyewa 18.000 unit GPU (nilai: USD 1,5 miliar) selama empat tahun dari mitra cloud, menyoroti dinamika pasokan yang kompleks.

Implikasi untuk Strategi Cloud Nvidia yang Lebih Luas

Restrukturisasi ini tidak menandakan komitmen yang berkurang terhadap teknologi cloud secara keseluruhan. Sebaliknya, ini mencerminkan penyempurnaan strategi. Nvidia akan terus berinvestasi besar-besaran dan memperluas ekosistem perangkat lunak pentingnya seperti CUDA, TensorRT, dan kerangka kerja inferensinya, yang dirancang untuk berjalan optimal di semua platform cloud utama. DGX Cloud, dalam bentuk barunya, akan bertindak sebagai tempat pembuktian untuk teknologi-teknologi ini. Langkah ini secara luas dipandang sebagai keputusan pragmatis yang menstabilkan kemitraan penting Nvidia, menegaskan kembali perannya sebagai pemberdaya infrastruktur AI, dan memungkinkannya memusatkan modal pada R&D ber margin tinggi. Ini mengakhiri eksperimen dua tahun dalam bergerak naik di tumpukan teknologi, menghasilkan jalan ke depan yang lebih jelas dan terfokus sebagai penyedia "sekop dan pacul" yang sangat diperlukan di era AI.