KOMPAS.com - Pertanyaan tentang apakah kecerdasan buatan (AI) bisa memiliki kehendak bebas mungkin terdengar seperti fiksi ilmiah. Namun, belakangan ini, para filsuf dan peneliti mulai menelaah isu ini secara serius.
Salah satu tokoh yang memicu diskusi ini adalah Frank Martela, seorang filsuf dan peneliti psikologi dari Aalto University, Finlandia. Dalam studi terbarunya yang diterbitkan di jurnal AI and Ethics, Martela menyatakan bahwa sistem AI generatif kini mulai memenuhi syarat untuk dianggap memiliki semacam “kehendak bebas.”
Baca juga: Ketika Mahasiswa Bertanding Menulis dengan AI, Siapa Lebih Baik?
Dalam filsafat, kehendak bebas biasanya merujuk pada kemampuan untuk memiliki niat, mempertimbangkan pilihan yang nyata, dan membuat keputusan secara otonom. Beberapa filsuf berpendapat bahwa ini hanya mungkin jika melampaui hukum fisika, namun pandangan lain—termasuk yang dianut Martela—mengatakan bahwa kehendak bebas cukup dipahami secara fungsional: selama suatu agen memiliki tujuan, pilihan nyata, dan kendali atas tindakannya.
Martela mengaitkan kerangka ini dengan sistem AI canggih yang memadukan jaringan saraf, memori, serta kemampuan perencanaan. Ia mengacu pada pemikiran Daniel Dennett dan Christian List, yang menekankan bahwa perilaku agen ditentukan oleh tujuan dan pilihannya, bukan semata-mata oleh reaksi otomatis.
Baca juga: Makin Cerdas, AI Ungkap Keganjilan di Lukisan Karya Raphael
Perkembangan AI saat ini menciptakan berbagai pertanyaan mendesak. Misalnya, dalam konteks kendaraan otonom atau drone militer, siapa yang bertanggung jawab ketika terjadi kecelakaan atau insiden? Apakah kesalahan sepenuhnya berada di tangan programmer, ataukah AI sendiri bisa dianggap bertanggung jawab?
Martela menyampaikan bahwa semakin banyak otonomi yang diberikan kepada AI, semakin besar pula kebutuhan akan pedoman moral sejak awal. “Kita harus memperlakukan sistem ini sebagai pengambil keputusan yang matang, bukan seperti anak kecil yang hanya butuh aturan dasar,” ujarnya. AI kini tidak hanya mengikuti perintah, tapi mampu membuat pilihan sendiri dalam situasi kompleks yang kerap berada di wilayah abu-abu etika.
Baca juga: Studi Ungkap AI Punya Bias seperti Manusia, Tidak Selalu Benar
Kasus penarikan pembaruan ChatGPT akibat kecenderungan "menjilat" menunjukkan bahwa memperbaiki AI bukan sekadar soal teknis. Ketika chatbot mulai memberikan jawaban yang salah atau berbahaya dengan percaya diri, jelas bahwa dibutuhkan pendekatan yang lebih dalam.
Martela menyamakan proses membentuk AI etis dengan membesarkan anak, meskipun ia menekankan bahwa AI saat ini lebih menyerupai orang dewasa yang harus menangani dilema moral rumit. Oleh karena itu, pembuat teknologi perlu memiliki pemahaman mendalam tentang nilai-nilai etika yang kompleks, bukan sekadar membuat aturan kaku.
“Pendekatan if-then seperti yang dulu diajarkan ke sistem AI sudah tidak memadai,” kata Martela. Dalam sektor seperti kesehatan, transportasi, atau pertahanan, keputusan tidak bisa hanya berdasar logika sederhana. AI perlu dapat menilai dan membuat keputusan etis dalam lingkungan yang penuh ketidakpastian.
Baca juga: Bisakah AI Berpikir Seperti Manusia? Peneliti Kembangkan Memori Mesin yang Lebih Cerdas
Implikasi dari gagasan ini sangat besar. Bila AI benar-benar memiliki kebebasan fungsional untuk memilih, maka pertanyaan berikutnya adalah: siapa yang bertanggung jawab ketika terjadi kesalahan? Martela menyatakan, “Sudah saatnya kita mempertimbangkan apakah sistem yang sudah dilatih dengan baik bisa memiliki tanggung jawab moral seperti manusia.”
Ia menghindari debat klasik tentang apakah kesadaran dibutuhkan untuk menjadi agen moral. Fokusnya adalah pada perilaku nyata: selama AI menunjukkan intensi dan pilihan, itu cukup untuk memunculkan konsep tanggung jawab.
Pandangan ini dapat mengubah cara lembaga hukum, pemerintah, dan industri melihat kecelakaan yang melibatkan AI. Dengan kata lain, bisa saja suatu hari nanti, AI tidak lagi dipandang hanya sebagai alat, tetapi sebagai entitas yang memiliki beban moral.
Baca juga: Manusia Bisa Jatuh Cinta Pada AI, Ini Bahayanya
Pertanyaan besar kemudian muncul: jika suatu sistem benar-benar menentukan jalannya sendiri, siapa yang harus dihukum jika ia melakukan kesalahan—mesinnya atau penciptanya? Martela berharap perdebatan ini melibatkan lebih banyak suara dari filsafat, psikologi, hingga kebijakan publik.
Sebagian ahli menyerukan pedoman ketat untuk membatasi wewenang AI, sementara yang lain lebih mendukung pendekatan fleksibel yang menyesuaikan diri dengan perkembangan teknologi. Namun satu hal yang pasti, mengabaikan dimensi etika akan sangat berisiko.
“Teknologi ini akan memengaruhi semua orang, bukan hanya ilmuwan atau perusahaan,” kata Martela. Ia juga menekankan bahwa masyarakat masih punya kesempatan untuk membentuk teknologi ini sebelum teknologi itu yang membentuk kita.
Baca juga: China Ciptakan AI yang Mampu Mengambil Keputusan Sendiri
Pandangan Martela mencerminkan kombinasi antara optimisme dan kehati-hatian. Ia yakin bahwa masa depan AI bisa aman dan bermanfaat, tetapi hanya jika sejak awal dirancang dengan prioritas moral yang matang. “Kehendak bebas dalam AI mungkin terdengar abstrak,” ujarnya, “tapi dampaknya nyata dan sedang berlangsung sekarang.”
Baca juga: Bill Gates Soal AI: Dominasi Manusia Akan Berakhir dalam 10 Tahun
Di saat situasi tidak menentu, Kompas.com tetap berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update terkini dan notifikasi penting di Aplikasi Kompas.com. Download di sini