Kecerdasan Buatan: Maju Secara Teknologis, Mundur Secara Ekologis dan Etis

4 hours ago 2

REPUBLIKA.CO.ID, JAKARTA -- Dalam dua dekade terakhir, umat manusia mencatat lonjakan luar biasa dalam pengembangan kecerdasan buatan (Artificial Intelligence/AI). Kita menyaksikan algoritma yang mampu menghasilkan karya seni, menulis puisi, mendiagnosis penyakit, bahkan menciptakan simulasi fisika kompleks. Namun, sebagai fisikawan yang terbiasa memeriksa setiap sistem tidak hanya dari hasilnya, tapi juga dari jejak energi dan etika yang ditinggalkannya, saya harus menyampaikan satu hal penting: AI, secerdas apapun ia tampak di permukaan, menyimpan bahaya yang jauh lebih dalam dan luas daripada yang disadari publik awam.

Pertama, mari kita bahas soal dampak ekologis. Sebuah studi yang baru-baru ini dipublikasikan dalam Scientific American menunjukkan bahwa pelatihan model AI besar seperti GPT-4 dan Claude memerlukan konsumsi energi yang sebanding dengan perjalanan udara ribuan kilometer atau pemakaian listrik rumah tangga selama bertahun-tahun. Bahkan, menurut laporan “The Uneven Distribution of AI’s Environmental Impacts”, beban ekologis ini tidak tersebar secara merata — negara-negara berkembang, yang menjadi lokasi pusat data karena biaya energi dan lahan yang lebih murah, justru menanggung dampak lingkungan dan sosial yang lebih besar, seperti polusi air dan peningkatan suhu lokal akibat limbah panas dari pusat data.

Sebagai akademisi, saya tidak bisa menutup mata bahwa kemajuan ini dibayar mahal oleh ketimpangan struktural dan ekologis global.

Kedua, kita menghadapi persoalan epistemik dan etis yang serius. AI yang dilatih dengan miliaran parameter dan data dari seluruh penjuru internet memang mengesankan dalam outputnya. Namun siapa yang menjamin bahwa data ini bersih dari bias, diskriminasi, atau bahkan kesalahan faktual yang berulang? Artikel di Built In menyebutkan setidaknya 14 potensi bahaya AI, termasuk disinformasi otomatis, pemutusan manusia dari proses pengambilan keputusan, dan ancaman pada privasi serta demokrasi. Bahkan jika AI tidak pernah mencapai kesadaran (sentience), ia tetap menjadi alat yang sangat kuat — dan karenanya, sangat berbahaya — di tangan segelintir korporasi dan negara.

Saya ingin menekankan: bahaya AI bukanlah karena ia mungkin menjadi “makhluk sadar”, melainkan karena manusia yang mengendalikannya mungkin tidak sadar akan tanggung jawab moralnya.

Ketiga, AI berpotensi menjadi parasit terhadap sumber daya manusia dan intelektual. Di dunia pendidikan, misalnya, AI telah dimanfaatkan untuk menulis tugas, menyusun presentasi, bahkan menilai esai. Ini menciptakan kemudahan semu, namun di baliknya terkikis semangat berpikir kritis dan integritas ilmiah. Dalam sains, kita bisa saja mengandalkan AI untuk menyaring jurnal, menyusun abstrak, bahkan menyusun hipotesis. Tapi siapa yang akan memverifikasi kebenaran dan makna jika bukan manusia?

Sebagai seorang pengajar, saya merasa berkewajiban untuk menyerukan perlunya kebijakan etik dan ekologis yang ketat dalam pengembangan dan penerapan AI. Kita tidak bisa menyerahkan masa depan pada sistem yang tidak memahami nilai-nilai dasar manusia: keberlanjutan, keadilan, dan belas kasih.

AI bisa menjadi alat yang luar biasa. Tapi seperti energi nuklir, pisau bedah, atau teori relativitas, ia harus disertai dengan kebijaksanaan moral dan kontrol kolektif. Tanpa itu, kita bukan sedang menciptakan kecerdasan, melainkan mempercepat kebodohan dalam bentuk lain — yang dibungkus dalam bahasa teknologi.

Ketika fisika mengajarkan kita hukum kekekalan energi, saya percaya bahwa setiap inovasi pun harus tunduk pada hukum kekekalan tanggung jawab: kemajuan teknologi harus diimbangi dengan tanggung jawab sosial dan ekologis yang setara. Jika tidak, maka kita hanya akan menyaksikan planet yang semakin canggih — tapi juga semakin rapuh.

Read Entire Article
Politics | | | |