Pernahkah Anda berpikir apa yang terjadi setiap kali Anda bertanya sesuatu kepada asisten AI dan mendapatkan jawaban dalam hitungan detik?
Di balik kemudahan itu, ada jaringan pusat data raksasa yang bekerja tanpa henti, mengonsumsi energi dalam jumlah luar biasa, cukup untuk menerangi ribuan rumah secara bersamaan.
Seiring AI menjadi bagian dari kehidupan sehari-hari, konsumsi energinya tak lagi bisa dianggap sepele. Setiap permintaan Anda meninggalkan jejak karbon, yang terus tumbuh seiring meningkatnya penggunaan teknologi ini. Mari kita telusuri lebih dalam dunia tersembunyi di balik kecanggihan AI dan bagaimana inovasi bertanggung jawab dapat membantu menjaga masa depan digital yang lebih ramah lingkungan.
Di seluruh dunia, terutama di Amerika Serikat, pusat data tumbuh layaknya kota mini yang dipenuhi rak-rak GPU bertenaga tinggi. Pusat data ini mengonsumsi sekitar 4,4 persen dari total pasokan listrik nasional hanya untuk menjalankan prosesor, sistem penyimpanan, dan pendingin canggih. Angka ini diperkirakan melonjak hingga 12 persen pada tahun 2028, sebagian besar disebabkan oleh beban kerja AI yang terus meningkat.
Penempatan pusat data yang lebih dekat dengan pengguna memang mempercepat respon, namun juga meningkatkan beban energi lokal dan tekanan terhadap jaringan listrik, terutama di daerah dengan kapasitas terbatas.
Sebelum sebuah model AI dapat menjawab satu pertanyaan, ia harus menjalani pelatihan intensif selama berminggu-minggu dengan ribuan chip GPU berdaya tinggi. Setiap chip bisa menyedot ratusan watt, menghasilkan emisi listrik yang bisa mencapai ratusan ribu kilowatt-jam. Tak hanya itu, proses produksi chip, perakitan server, hingga pembangunan fasilitasnya pun mengandung "energi tersembunyi" yang berkontribusi pada jejak karbon.
Sayangnya, banyak perusahaan teknologi besar enggan membagikan data konsumsi energi mereka, membuat publik hanya bisa mengandalkan perkiraan kasar dari para peneliti independen.
Setelah dilatih, proses inference atau saat AI memproses pertanyaan Anda, menjadi sumber utama konsumsi energi. Setiap permintaan dikirim ke pusat data yang menggunakan sumber listrik berbeda-beda: ada yang menggunakan energi terbarukan, tapi masih banyak yang bergantung pada bahan bakar fosil.
Permintaan energi untuk pendingin pun berfluktuasi tergantung cuaca dan intensitas proses. Saat cuaca panas, efisiensi bisa turun hingga 20 persen. Karena data infrastruktur hanya dimiliki oleh operator AI, para peneliti menggunakan metode pendekatan untuk mengukur emisi tiap permintaan pengguna.
Studi terbaru dari Universitas Terapan Munich menunjukkan perbedaan besar dalam efisiensi antar model AI. Menggunakan GPU NVIDIA A100, mereka menguji 14 varian model terbuka dari Meta dan pengembang lainnya. Hasilnya? Model logika seperti sistem penalaran menggunakan token hingga 70 kali lebih banyak dibanding model biasa hanya untuk menjawab satu pertanyaan.
Dengan hadirnya chip NVIDIA H100 yang lebih kuat tapi juga lebih boros daya, selisih konsumsi energi antara model kecil dan besar menjadi semakin mencolok.
Memilih model yang tepat untuk setiap tugas bisa menghemat energi secara signifikan. Misalnya, untuk pencarian fakta sederhana, model kecil yang efisien dapat memberikan jawaban yang sama akuratnya dengan model besar.
Pengguna juga bisa berkontribusi: hilangkan kata-kata tidak penting dalam prompt. Misalnya, ubah "Bisakah Anda menjelaskan ini untuk kami?" menjadi "Jelaskan ini". Perubahan kecil ini, jika dilakukan oleh jutaan pengguna, dapat menghasilkan penghematan energi yang luar biasa.
Jadwalkan juga permintaan yang tidak mendesak pada jam-jam sepi atau saat cuaca lebih dingin, untuk mengurangi beban pada jaringan listrik.
Para ahli kini mendorong agar setiap layanan AI memiliki label energi, seperti pada peralatan rumah tangga. Skor dari A++ hingga C bisa menunjukkan rata-rata konsumsi listrik per 1.000 token dan seberapa besar proporsi energi terbarukan yang digunakan.
Dengan label ini, perusahaan dan pengguna bisa memilih layanan AI yang lebih ramah lingkungan. Bahkan, bisa menjadi syarat wajib bagi layanan yang digunakan oleh jutaan orang setiap hari.
Tanpa peraturan yang jelas, efisiensi sering kali dikorbankan demi performa. Oleh karena itu, penting bagi badan pengatur untuk mewajibkan pelaporan konsumsi energi, sumber energi, dan rata-rata emisi per permintaan pengguna.
Lembaga keuangan juga bisa memasukkan metrik karbon AI dalam analisis risiko lingkungan, mempengaruhi arah investasi dalam infrastruktur komputasi masa depan.
Operator jaringan listrik memperingatkan bahwa beban dari AI bisa melampaui kapasitas listrik di beberapa wilayah. Pelatihan model secara bersamaan atau lonjakan permintaan pengguna dapat mengganggu stabilitas jaringan.
Solusinya? Investasi besar-besaran dalam energi terbarukan, penyimpanan energi, dan sistem demand response sangat penting. Kolaborasi antara pengembang AI dan penyedia energi bisa memastikan beban berat terjadi saat pasokan energi bersih melimpah.
Menyeimbangkan inovasi AI dengan keberlanjutan lingkungan membutuhkan keputusan sadar di setiap langkah. Energi yang terkandung dalam setiap permintaan, dari desain pusat data, arsitektur model, hingga cara pengguna mengetik pertanyaan, semua berkontribusi.
Dengan memilih model yang efisien, merapikan prompt, dan mendorong transparansi, komunitas AI dapat secara nyata mengurangi dampaknya terhadap lingkungan. Kami mengajak Anda untuk mencoba langkah-langkah ini dan menjadi bagian dari gerakan AI hijau, karena setiap pertanyaan yang diringkas adalah satu langkah lebih dekat menuju masa depan digital yang berkelanjutan.