Ledakan kecerdasan buatan telah memicu perdebatan sengit tentang konsumsi energi, dengan perusahaan teknologi melakukan investasi yang belum pernah terjadi sebelumnya dalam tenaga nuklir sementara para ahli berdebat apakah AI benar-benar akan menguras jaringan listrik. Bulan-bulan terakhir telah menyaksikan perusahaan teknologi besar berkomitmen miliaran dolar untuk mengamankan sumber energi, menandakan keyakinan mereka bahwa AI memang akan membutuhkan listrik dalam jumlah besar.
Perusahaan Teknologi Besar Bergegas Mengamankan Tenaga Nuklir
Microsoft , Google , dan Amazon semuanya telah mengumumkan kemitraan signifikan dengan perusahaan energi nuklir dalam beberapa bulan terakhir. Microsoft menandatangani kesepakatan untuk memulai kembali pembangkit nuklir Three Mile Island , sementara Google berkomitmen mendukung tiga proyek nuklir baru dan bermitra dengan startup Kairos Power . Amazon membeli saham di pengembang energi nuklir khusus untuk memberi daya pada pusat datanya. Langkah-langkah ini merupakan perubahan dramatis dari ledakan teknologi sebelumnya, di mana perusahaan tidak perlu mengamankan seluruh pembangkit listrik untuk memenuhi kebutuhan komputasi mereka.
Skala investasi ini menunjukkan bahwa para pemimpin industri benar-benar percaya AI akan mengonsumsi listrik jauh lebih banyak daripada pola penggunaan saat ini. OpenAI baru-baru ini mengumumkan kemitraan yang diukur dalam gigawatt daripada metrik tradisional seperti kapasitas komputasi atau dolar, menunjukkan bahwa konsumsi daya telah menjadi perhatian utama untuk pengembangan AI.
Komitmen Energi Nuklir Perusahaan Teknologi Besar (2024)
- Microsoft: Kemitraan untuk memulai kembali pembangkit listrik tenaga nuklir Three Mile Island
- Google: Mendukung tiga proyek nuklir baru + kemitraan dengan Kairos Power
- Amazon: Membeli saham di pengembang energi nuklir untuk pusat data
- OpenAI / Sam Altman: Kemitraan dengan Oklo untuk pembangkitan tenaga nuklir
Argumen Pola Historis Tidak Memadai
Meskipun beberapa ahli menunjuk pada prediksi masa lalu tentang penggunaan energi komputer yang tidak terwujud, situasi saat ini tampaknya secara fundamental berbeda. Perbandingan dengan prediksi 1999 tentang komputer pribadi yang mengonsumsi 50% listrik AS mengabaikan perbedaan krusial: perusahaan AI saat ini mendukung proyeksi mereka dengan komitmen finansial nyata untuk infrastruktur listrik.
Perusahaan-perusahaan yang membangun kapasitas tentu percaya bahwa AI akan menggunakan daya sebanyak yang kita dengar. Kita diberitahu ini bukan berdasarkan spekulasi hipotetis, tetapi berdasarkan miliaran dolar nyata yang dihabiskan untuk kapasitas daya nyata untuk pusat data nyata oleh orang-orang nyata yang lebih suka menyimpan uang tersebut.
Efek rebound juga memperumit argumen efisiensi. Bahkan ketika operasi AI individual menjadi lebih efisien, peningkatan penggunaan sering kali mengalahkan keuntungan ini. Pola ini mencerminkan teknologi lain seperti jaringan 5G, di mana peningkatan efisiensi per operasi menyebabkan penggunaan keseluruhan dan konsumsi energi yang jauh lebih tinggi secara dramatis.
Konteks Konsumsi Energi AI
- Penggunaan listrik sektor IT saat ini: 1-2% dari total konsumsi global
- Penambangan mata uang kripto: 0,5-1% dari konsumsi listrik dunia
- Produksi semen: ~7% dari emisi global (sebagai perbandingan)
- Pendapatan OpenAI : ~$3 miliar USD per tahun
- Biaya pengembangan OpenAI : ~$7 miliar USD total
Dampak Lokal dan Tekanan Infrastruktur
Konsentrasi pusat data AI di daerah dengan listrik yang lebih murah sudah mempengaruhi pasar energi lokal. Perusahaan seperti xAI mendirikan fasilitas di tempat-tempat seperti Tennessee , di mana biaya energi lebih rendah tetapi sering mengandalkan sumber daya yang lebih kotor. Pengelompokan geografis ini dapat mendorong harga listrik lokal naik dan membebani jaringan regional, terutama karena AS menghadapi potensi pergeseran kebijakan menjauh dari investasi energi terbarukan.
Persyaratan infrastruktur meluas melampaui hanya pembangkitan listrik. Pusat data AI modern memerlukan sistem pendingin air yang tidak diperlukan untuk beban kerja komputasi sebelumnya, dengan beberapa perkiraan menunjukkan setiap kueri AI mengonsumsi beberapa tetes air minum untuk tujuan pendinginan.
Perdebatan Efisiensi vs Skala
Pendukung argumen AI tidak akan menggunakan banyak energi menunjuk pada peningkatan efisiensi dan potensi AI untuk menggantikan aktivitas yang lebih intensif energi. Mereka berargumen bahwa AI dapat mengurangi konsumsi energi dengan menghilangkan perjalanan bisnis, mengurangi kebutuhan infrastruktur fisik, dan mengoptimalkan berbagai proses.
Namun, kritikus mencatat bahwa pelatihan AI berperilaku lebih seperti penambangan mata uang kripto, dengan perusahaan terus meningkatkan persyaratan komputasi untuk tetap kompetitif. Perlombaan untuk mengembangkan model yang lebih kuat telah menyebabkan permintaan energi yang tumbuh secara eksponensial, tanpa batas yang jelas terlihat.
Perdebatan pada akhirnya berpusat pada apakah keuntungan efisiensi dapat mengimbangi penggunaan yang berkembang pesat. Meskipun operasi AI individual mungkin menjadi lebih efisien dari waktu ke waktu, total konsumsi energi tergantung pada seberapa cepat adopsi dan persyaratan komputasi tumbuh.
Bukti saat ini menunjukkan bahwa perusahaan teknologi besar percaya permintaan energi akan cukup substansial untuk membenarkan investasi infrastruktur besar-besaran. Apakah investasi ini terbukti bijaksana atau berlebihan kemungkinan akan menjadi jelas dalam beberapa tahun ke depan saat pola adopsi AI stabil.