KOMPAS.com - Chatbot AI seperti ChatGPT memang mengesankan — menjawab miliaran permintaan setiap hari, seolah-olah dari “udara”. Namun di balik layar, ada biaya energi yang sangat besar.
Pada 2023, pusat data (data center) yang digunakan untuk melatih dan menjalankan AI menyumbang 4,4% dari konsumsi listrik di AS. Secara global, kontribusinya mencapai sekitar 1,5% dari konsumsi energi dunia, dan angka ini diperkirakan akan setidaknya dua kali lipat pada 2030.
“Baru tiga tahun lalu kita bahkan belum punya ChatGPT,” kata Alex de Vries-Gao, peneliti keberlanjutan teknologi di Vrije Universiteit Amsterdam sekaligus pendiri Digiconomist. “Sekarang kita bicara tentang teknologi yang mungkin akan bertanggung jawab atas hampir setengah konsumsi listrik pusat data di seluruh dunia.”
Lalu, mengapa chatbot AI begitu boros energi?
Baca juga: 32 Cara AI Bisa “Ngawur”, Mirip Gangguan Mental pada Manusia
Menurut Mosharaf Chowdhury, ilmuwan komputer dari University of Michigan, ada dua proses AI yang paling menghabiskan energi: training (pelatihan) dan inference (proses menghasilkan jawaban).
1. Training – Melatih Model AI
Large Language Models (LLM) seperti ChatGPT dilatih menggunakan dataset yang sangat besar untuk mengenali pola dan membuat prediksi. Dalam dunia AI, ada keyakinan bahwa “semakin besar, semakin baik”, sehingga model terus diperbesar agar hasilnya makin akurat.
Namun, ini membawa konsekuensi besar. Chowdhury menjelaskan: “Model sekarang begitu besar, sampai tidak muat di satu GPU atau satu server. Harus dibagi ke banyak server yang masing-masing punya delapan GPU dan berjalan selama berminggu-minggu bahkan berbulan-bulan.”
De Vries-Gao memperkirakan sebuah server Nvidia DGX A100 membutuhkan daya hingga 6,5 kilowatt. Melatih GPT-4 saja diperkirakan mengonsumsi 50 gigawatt-jam energi — setara dengan listrik yang digunakan seluruh kota San Francisco selama tiga hari.
2. Inference – Menjawab Permintaan Pengguna
Inference memang memerlukan daya komputasi lebih sedikit dibanding training, tetapi jumlah permintaannya luar biasa besar. Per Juli 2025, pengguna ChatGPT mengirimkan lebih dari 2,5 miliar prompt setiap hari, memaksa banyak server bekerja bersamaan agar bisa memberi jawaban dalam hitungan detik.
Chowdhury menambahkan: “Bahkan di tahap inference, Anda tidak bisa benar-benar menghemat energi. Modelnya memang besar, tapi yang lebih besar lagi adalah jumlah orang yang menggunakannya.”
Baca juga: Jika AI Memiliki Kehendak Bebas, Siapa yang Tanggung Jawab Kalau ada Kesalahan?
Walau beberapa peneliti berusaha menghitung konsumsi energi AI, data sebenarnya sulit didapat. Perusahaan besar seperti Google, Microsoft, dan Meta jarang mengungkap angka detail. Hal ini membuat sulit untuk mengetahui seberapa besar dampak lingkungan AI dan apakah infrastruktur listrik dunia bisa mengimbangi pertumbuhan ini.
“Masalah mendasarnya adalah dampaknya tidak pernah transparan,” kata de Vries-Gao. “Bola ada di tangan pembuat kebijakan untuk mendorong keterbukaan agar pengguna bisa mulai berbuat sesuatu.”
Baca juga: Studi Ungkap AI Punya Bias seperti Manusia, Tidak Selalu Benar
Sebagai pengguna, kita juga bisa ikut berkontribusi mengurangi dampak ini:
Sebagai pengguna, kita bisa mendorong transparansi energi dan kebijakan keberlanjutan. Dengan mengetahui berapa besar energi yang digunakan chatbot, kita dapat membuat pilihan lebih bijak, sekaligus menuntut perusahaan teknologi untuk mengurangi jejak karbon mereka.
Kita perlu memahami bahwa di balik kecerdasan AI, ada biaya energi yang sangat besar. Memahami dampak ini adalah langkah awal untuk menciptakan teknologi yang bukan hanya pintar, tetapi juga ramah lingkungan.
Baca juga: Manusia Bisa Jatuh Cinta Pada AI, Ini Bahayanya
Di saat situasi tidak menentu, Kompas.com tetap berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update terkini dan notifikasi penting di Aplikasi Kompas.com. Download di sini