Pendinginan Cair Datacenter Google Memicu Perdebatan Mengenai Klaim Inovasi vs. Teknologi Mainframe Berusia Puluhan Tahun

Tim Komunitas BigGo
Pendinginan Cair Datacenter Google Memicu Perdebatan Mengenai Klaim Inovasi vs. Teknologi Mainframe Berusia Puluhan Tahun

Presentasi Google di Hot Chips 2025 tentang pendinginan cair skala datacenter untuk chip TPU telah memicu diskusi hangat di komunitas teknologi. Meskipun perusahaan tersebut menampilkan solusi pendinginan mereka sebagai kemajuan signifikan, banyak veteran industri mempertanyakan apakah ini merupakan inovasi sejati atau sekadar penemuan kembali teknologi mainframe yang sudah mapan.

Timeline Pendinginan Cair Google

  • 2014-2016: Fase riset dan pengembangan serta eksperimen awal
  • 2016: Implementasi TPU berpendingin cair pertama
  • 2025: Penerapan skala pusat data saat ini dengan CDU tingkat rak

Perdebatan Inovasi vs. Penemuan Kembali

Kontroversi utama berpusat pada apakah pendekatan Google benar-benar membuka jalan baru. Para kritikus menunjukkan bahwa mainframe telah menggunakan pendinginan cair selama lebih dari 50 tahun, dengan sistem IBM dari tahun 1960-an sudah menggunakan pertukaran panas air-ke-air melalui Coolant Distribution Units (CDU) - arsitektur dasar yang sama yang dipresentasikan Google saat ini. Beberapa anggota komunitas mengungkapkan frustrasi terhadap apa yang mereka lihat sebagai amnesia selektif di industri ini.

Namun, para pendukung berargumen bahwa inovasi sebenarnya bukan terletak pada konsep pendinginan itu sendiri, melainkan pada skala dan pendekatan integrasinya. Sistem Google mencakup seluruh datacenter daripada server atau rak individual, menghilangkan transfer panas berbasis udara di seluruh rantai pendinginan dari chip hingga chiller eksternal.

Tantangan Skala dan Operasional

Diskusi tersebut mengungkap wawasan menarik tentang tantangan praktis pendinginan cair skala datacenter. Tidak seperti penggemar PC yang dapat mematikan sistem mereka untuk pemeliharaan, Google harus mempertahankan zero downtime di ribuan server. Solusi mereka mencakup CDU redundan dan sistem monitoring canggih untuk menangani pemeliharaan tanpa gangguan layanan.

Anggota komunitas dengan pengalaman datacenter menyoroti kompleksitas mengelola koneksi air bersama kabel listrik dan jaringan tradisional. Setiap server sekarang memerlukan saluran air masuk dan keluar dengan fitting quick-disconnect, pada dasarnya memperlakukan server seperti membutuhkan listrik, internet, dan air - menarik perbandingan dengan kebutuhan dasar manusia.

Spesifikasi Teknis

  • Konfigurasi CDU: 6 unit per rak (5 aktif, 1 untuk pemeliharaan)
  • Efisiensi Pendinginan: Air memiliki konduktivitas termal ~4000x lebih tinggi dibanding udara
  • Penghematan Daya: Pompa pendingin cair menggunakan <5% dari daya kipas yang setara
  • Peningkatan TPUv4: Pendinginan bare-die memberikan penanganan daya 1,5x lebih tinggi dibanding TPUv3

Pertimbangan Lingkungan dan Efisiensi

Aspek penggunaan air telah menghasilkan perdebatan signifikan, terutama terkait dampak lingkungan AI. Meskipun beberapa pihak mengungkapkan kekhawatiran tentang konsumsi air, yang lain berargumen bahwa kritik tersebut berlebihan. Diskusi mengungkap bahwa penggunaan air datacenter, meskipun substansial yaitu 66 juta galon per hari di AS, hanya mewakili sekitar 6% dari konsumsi air lapangan golf dan 3% dari penggunaan pertanian kapas.

Saya pernah melihat wawancara dengan SVP yang mengawasi pembangunan datacenter Azure atau semacamnya dan hal yang menempel di pikiran saya adalah dia mengatakan pekerjaannya menjadi jauh lebih mudah ketika dia menyadari bahwa dia tidak lagi berada di bisnis komputer, dia sekarang berada di bisnis pendinginan industri.

Konteks Penggunaan Air

  • Konsumsi Datacenter AS: 66 juta galon/hari (2024)
  • Proyeksi Pertumbuhan: Peningkatan 2-4 kali lipat pada 2028
  • Perbandingan: 6% dari penggunaan air lapangan golf AS, 3% dari penggunaan air pertanian kapas
  • Tingkat Google: ~1 liter per kilowatt-jam secara global

Detail Implementasi Teknis

Diskusi komunitas memberikan wawasan teknis berharga di luar presentasi asli. Desain cold plate split-flow Google dan pendekatan pendinginan bare-die untuk chip TPUv4 menunjukkan upaya yang diperlukan untuk menangani kepadatan daya yang meningkat. Konfigurasi seri sistem berarti beberapa chip menerima coolant yang sudah dipanaskan, memerlukan budgeting termal yang hati-hati untuk chip terakhir di setiap loop.

Insinyur berpengalaman mencatat bahwa meskipun komponen individual tidak revolusioner, kombinasi dan optimisasi skala merupakan pencapaian teknik yang signifikan. Angka Power Usage Effectiveness (PUE) yang dilaporkan menunjukkan implementasi Google sangat efisien dibandingkan pendekatan pendinginan udara tradisional.

Perdebatan tersebut pada akhirnya mencerminkan pola yang lebih luas di industri teknologi di mana perusahaan menemukan kembali dan mengadaptasi teknologi yang sudah mapan untuk skala dan aplikasi baru. Baik dipandang sebagai inovasi atau iterasi, implementasi pendinginan cair Google menunjukkan evolusi berkelanjutan infrastruktur datacenter untuk memenuhi tuntutan beban kerja AI modern.

Referensi: Google's Liquid Cooling at Hot Chips 2025