Kata Tolong dan Terima Kasih Buat ChatGPT Boros Jutaan Dolar: Biaya Energi AI Jadi Sorotan
Jakarta, 28 April 2025 – Pendiri OpenAI, Sam Altman, mengungkapkan fakta mengejutkan bahwa kata-kata sopan seperti “tolong” dan “terima kasih” yang sering digunakan pengguna saat berinteraksi dengan ChatGPT telah menghabiskan biaya operasional hingga jutaan dolar Amerika Serikat. Pernyataan ini berawal dari pertanyaan seorang pengguna X bernama Tomie, yang penasaran berapa banyak uang yang “hilang” akibat biaya listrik untuk memproses ucapan sopan tersebut. Altman menjawab bahwa meskipun biayanya fantastis, pengeluaran ini dianggap "dikeluarkan dengan baik" untuk mendukung pengembangan kecerdasan buatan (AI).
Biaya Tersembunyi di Balik Kesopanan
Setiap kali pengguna mengetik “tolong” atau “terima kasih”, ChatGPT harus memproses kata-kata tersebut sebagai bagian dari input, yang menambah beban komputasi. Menurut Altman, biaya ini terkait langsung dengan konsumsi listrik untuk menjalankan model bahasa besar seperti GPT-3, yang menjadi tulang punggung ChatGPT. Proses pelatihan GPT-3 saja membutuhkan hampir 1.300 megawatt-jam (MWh) listrik—setara dengan kebutuhan energi tahunan 130 rumah di Amerika Serikat. Namun, biaya tidak berhenti di pelatihan; operasional harian ChatGPT juga sangat boros energi.
Data dari International Energy Agency (IEA) menyebutkan bahwa satu pencarian ChatGPT menghabiskan 2,9 watt-jam listrik. Jika dihitung dengan asumsi 9 miliar pencarian per hari, kebutuhan listriknya melonjak hingga 10 terawatt-jam per tahun, setara dengan konsumsi listrik 1,5 juta penduduk Uni Eropa. Angka ini menunjukkan betapa besar dampak energi dari interaksi sederhana, termasuk penggunaan kata-kata sopan yang sebenarnya tidak diperlukan secara teknis oleh AI.
Konsumsi Energi AI: Fakta dan Angka
Menurut laporan The Electric Power Research Institute (EPRI), satu interaksi dengan ChatGPT bisa menghabiskan hingga 0,14 kilowatt-jam (kWh) listrik—cukup untuk menyalakan 14 bohlam LED selama satu jam. Dengan jutaan pengguna setiap hari, akumulasi energinya sangat signifikan. Pusat data yang mendukung AI generatif seperti ChatGPT bahkan menyumbang sekitar 2% dari total konsumsi listrik global, dan angka ini diperkirakan akan terus meningkat seiring bertambahnya adopsi teknologi AI.
Sumber lain, seperti TechRadar, melaporkan bahwa OpenAI menghabiskan “puluhan juta dolar” hanya untuk memproses interaksi sopan ini. Biaya tersebut mencakup pemrosesan token tambahan—setiap kata dalam input pengguna dihitung sebagai token yang membutuhkan daya komputasi. Semakin panjang input, termasuk kata-kata sopan, semakin besar pula energi yang dibutuhkan.
Pandangan Pro dan Kontra
Meski biayanya besar, ada yang melihat sisi positif dari interaksi sopan dengan AI. Kurtis Beavers, Direktur Desain Microsoft, berpendapat bahwa bersikap sopan dapat meningkatkan kualitas respons AI, menciptakan pengalaman yang lebih kolaboratif dan manusiawi. Namun, dari sisi operasional, efisiensi energi tetap menjadi tantangan besar. Beberapa ahli menyarankan agar perusahaan seperti OpenAI mengembangkan algoritma yang lebih hemat energi atau memanfaatkan sumber energi terbarukan untuk mengurangi dampak lingkungan.
Solusi ke Depan
Untuk mengatasi masalah ini, OpenAI dan perusahaan teknologi lainnya mulai mengeksplorasi cara mengurangi konsumsi energi. Salah satunya adalah dengan mengoptimalkan pemrosesan input umum, seperti ucapan sopan, agar tidak terlalu membebani sistem. Selain itu, beralih ke energi hijau untuk pusat data menjadi langkah yang semakin populer di industri teknologi demi menekan jejak karbon.
Sam Altman sendiri tetap optimistis. Dalam cuitannya di X, ia berkata, “Puluhan juta dolar dihabiskan dengan baik. Anda tidak pernah tahu.” Pernyataan ini menegaskan bahwa OpenAI melihat biaya ini sebagai investasi jangka panjang untuk menciptakan AI yang lebih ramah dan intuitif bagi pengguna.