Klaim Pengurangan Energi AI 33x Google Memicu Perdebatan Soal Statistik Menyesatkan

Tim Komunitas BigGo
Klaim Pengurangan Energi AI 33x Google Memicu Perdebatan Soal Statistik Menyesatkan

Google baru-baru ini mengumumkan pengurangan konsumsi energi yang luar biasa sebesar 33 kali lipat untuk kueri AI hanya dalam satu tahun, namun komunitas teknologi mempertanyakan apakah angka-angka mengesankan ini menceritakan keseluruhan cerita. Klaim tersebut telah memicu perdebatan sengit tentang bagaimana perusahaan menyajikan data dampak lingkungan dan apakah metodologi Google menciptakan gambaran yang menyesatkan tentang biaya energi AI yang sebenarnya.

Metrik Energi AI yang Dilaporkan Google:

  • Median prompt teks Gemini Apps : 0,24 watt-jam energi
  • Emisi karbon: 0,03 gram setara CO2 per prompt
  • Konsumsi air: 0,26 mililiter per prompt
  • Setara dengan ~9 detik menonton TV per kueri

Kontroversi Median vs Rata-rata

Inti kontroversi terletak pada pilihan Google untuk melaporkan konsumsi energi median daripada konsumsi rata-rata. Kritikus berargumen bahwa pendekatan statistik ini memungkinkan Google menyajikan angka yang secara dramatis lebih rendah dengan memasukkan operasi AI kecil yang tak terhitung jumlahnya dari ringkasan pencarian bersama dengan tugas-tugas yang lebih intensif energi. Ketika Google menjalankan model AI kecil untuk setiap kueri pencarian guna menghasilkan gambaran umum AI yang muncul di bagian atas hasil pencarian, operasi ringan ini dapat secara signifikan menarik turun nilai median.

Ini seperti menambahkan 8 makanan ekstra berupa satu lembar selada dan kemudian mengklaim bahwa Anda mengurangi asupan kalori median dari makanan Anda.

Trik statistik ini berarti bahwa meskipun model paling kuat Google seperti Gemini 2.5 Pro mungkin masih mengonsumsi energi yang besar, perhitungan median berfokus pada model yang jauh lebih kecil yang menangani tugas pencarian rutin. Komunitas menunjukkan bahwa ketika perusahaan biasanya melaporkan peningkatan efisiensi, mereka menggunakan rata-rata karena lebih baik mewakili dampak keseluruhan di semua operasi.

Spesifikasi Model yang Hilang Menimbulkan Kekhawatiran

Kekhawatiran besar lainnya adalah keengganan Google untuk memberikan data konsumsi energi spesifik untuk model individual. Laporan tersebut membahas Gemini Apps dan menggunakan istilah luas seperti median Gemini tanpa mengidentifikasi dengan jelas model AI spesifik mana yang disertakan dalam perhitungan. Ketidakjelasan ini membuat peneliti dan pesaing tidak mungkin memverifikasi klaim atau memahami perbaikan apa yang sebenarnya terjadi.

Komunitas teknis mencatat bahwa laporan Google dengan hati-hati menghindari penyebutan versi model spesifik ketika membahas pengurangan energi, tidak seperti materi pemasaran biasa yang akan menyoroti perbaikan pada produk unggulan. Kelalaian ini menunjukkan bahwa peningkatan efisiensi yang mengesankan mungkin tidak berlaku untuk model besar dan mampu yang kebanyakan pengguna pikirkan ketika membahas kinerja AI.

Yang Dikecualikan dari Analisis Google :

  • Biaya energi pelatihan model AI
  • Konsumsi energi infrastruktur jaringan
  • Beban komputasi perangkat pengguna akhir
  • Energi dari pelatihan yang gagal/tidak digunakan

Perbaikan Nyata Terkubur dalam Pemasaran

Meskipun ada kekhawatiran statistik, Google telah membuat kemajuan teknis yang nyata yang berkontribusi pada efisiensi energi. Perusahaan mengimplementasikan beberapa teknik optimisasi termasuk arsitektur Mixture-of-Experts, yang hanya mengaktifkan bagian model AI yang diperlukan untuk permintaan spesifik. Mereka juga mengembangkan versi model yang lebih kompak dan meningkatkan manajemen pusat data untuk memastikan perangkat keras beroperasi pada efisiensi puncak.

Akselerator AI khusus Google dan tumpukan perangkat lunak yang dioptimalkan memberikan keuntungan tambahan, memungkinkan perusahaan untuk menyetel baik perangkat keras maupun perangkat lunak untuk efisiensi maksimum. Perbaikan teknis ini mewakili kemajuan nyata dalam membuat operasi AI lebih berkelanjutan, bahkan jika angka-angka utama mungkin menyesatkan.

Optimisasi Teknis yang Diimplementasikan:

  • Mixture-of-Experts (MoE): Mengurangi kebutuhan komputasi hingga 10-100x dengan hanya mengaktifkan bagian model yang relevan
  • Model Quantization: Mengompres model sambil mempertahankan performa
  • Optimisasi Hardware: Akselerator AI khusus yang dirancang spesifik untuk perangkat lunak Google
  • Efisiensi Data Center: Meningkatkan tingkat utilisasi dan status idle berdaya rendah
Fasilitas modern ini menyoroti kemajuan dalam efisiensi energi dan keberlanjutan dalam teknologi, mencerminkan upaya Google untuk mengoptimalkan penggunaan energi AI
Fasilitas modern ini menyoroti kemajuan dalam efisiensi energi dan keberlanjutan dalam teknologi, mencerminkan upaya Google untuk mengoptimalkan penggunaan energi AI

Gambaran Besar tentang Penggunaan Energi AI

Perdebatan ini menyoroti tantangan yang lebih luas dalam mengukur dampak lingkungan AI. Sementara efisiensi kueri individual telah meningkat, total volume operasi AI telah meledak karena perusahaan mengintegrasikan fitur AI ke dalam setiap produk dan layanan. Google sekarang menjalankan operasi AI untuk setiap kueri pencarian, menciptakan permintaan komputasi masif yang tidak ada hanya beberapa tahun lalu.

Diskusi ini juga mengungkapkan kompleksitas mengukur konsumsi energi AI. Analisis Google mencakup penggunaan prosesor, memori, pendinginan, dan emisi manufaktur perangkat keras, tetapi mengecualikan biaya pelatihan dan infrastruktur jaringan. Kelalaian ini berarti biaya lingkungan AI yang sebenarnya tetap sulit dikuantifikasi, membuatnya lebih mudah bagi perusahaan untuk menyajikan statistik yang menguntungkan sambil menghindari gambaran lengkap.

Kontroversi ini menggarisbawahi kebutuhan akan metode pelaporan yang terstandarisasi dan transparan untuk konsumsi energi AI. Karena AI menjadi lebih lazim di semua layanan digital, pengukuran yang akurat dan pelaporan yang jujur akan sangat penting untuk membuat keputusan yang tepat tentang trade-off lingkungan teknologi tersebut.

Referensi: Google says it dropped the energy cost of AI queries by 33x in one year