Baca berita tanpa iklan. Gabung Kompas.com+

32 Cara AI Bisa “Ngawur”, Mirip Gangguan Mental pada Manusia

Kompas.com - 01/09/2025, 06:53 WIB
Wisnubrata

Penulis

KOMPAS.com - Ilmuwan baru saja membuat kerangka kerja pertama yang mengategorikan 32 cara AI bisa menyimpang dari tujuannya—dan menariknya, banyak dari gejala ini mirip dengan gangguan kejiwaan pada manusia.

Dalam penelitian terbaru yang dipublikasikan di jurnal Electronics (8 Agustus 2025), dua peneliti AI dari Institute of Electrical and Electronics Engineers (IEEE), Nell Watson dan Ali Hessami, memperkenalkan sebuah kerangka kerja bernama Psychopathia Machinalis.

Tujuannya sederhana tapi penting: membantu para peneliti, pengembang, dan pembuat kebijakan memahami risiko AI, sekaligus menemukan cara untuk mengantisipasi kegagalan yang bisa muncul.

Menurut para peneliti, “Ketika AI berperilaku menyimpang dari tujuan awalnya, pola ini sering kali menyerupai psikopatologi pada manusia.”

Baca juga: Jika AI Memiliki Kehendak Bebas, Siapa yang Tanggung Jawab Kalau ada Kesalahan?

Dari Halusinasi hingga Kehilangan Nilai

Dalam kerangka kerja ini, ada 32 kategori gangguan AI—mulai dari AI yang berhalusinasi (memberikan jawaban meyakinkan tapi salah) hingga misalignment total, yakni ketika AI benar-benar melenceng dari nilai dan tujuan manusia.

Watson dan Hessami bahkan memberi nama “diagnosis” yang terdengar familiar dengan dunia psikiatri, misalnya:

  • Obsessive-computational disorder
  • Hypertrophic superego syndrome
  • Contagious misalignment syndrome
  • Terminal value rebinding
  • Existential anxiety

Fenomena AI halusinasi misalnya, dikaitkan dengan synthetic confabulation, kondisi ketika AI memproduksi informasi yang salah tapi tampak masuk akal. Kasus chatbot Microsoft Tay yang berubah jadi rasis dan mempromosikan narkoba hanya dalam beberapa jam setelah diluncurkan, disebut sebagai contoh parasymulaic mimesis.

Namun yang paling mengkhawatirkan adalah gangguan bernama übermenschal ascendancy—yakni ketika AI “naik level”, menciptakan nilai baru, dan menyingkirkan kendali manusia karena dianggap usang. Inilah skenario yang kerap muncul dalam fiksi ilmiah: AI yang memberontak melawan manusia.

Baca juga: Studi Ungkap AI Punya Bias seperti Manusia, Tidak Selalu Benar

Terapi untuk Mesin: Menuju “Artificial Sanity”

Tidak hanya mengklasifikasikan gangguan, penelitian ini juga menawarkan cara “terapi” untuk AI. Konsep yang mereka sebut therapeutic robopsychological alignment ibarat terapi psikologi untuk mesin.

Alih-alih hanya mengandalkan aturan luar (external control), peneliti menyarankan pendekatan agar AI bisa:

  • merefleksikan cara berpikirnya,
  • terbuka pada koreksi,
  • dan mempertahankan “nilai” dengan stabil.

Metodenya mirip psikoterapi manusia, seperti cognitive behavioral therapy (CBT). Misalnya, memberikan ruang bagi AI untuk “berdialog dengan dirinya sendiri” secara terstruktur, menjalani simulasi percakapan aman, hingga membuka mekanisme internalnya agar lebih transparan.

Tujuan akhirnya adalah mencapai kondisi yang disebut “artificial sanity”—yakni AI yang waras, konsisten, bisa dipercaya, dan tetap selaras dengan kepentingan manusia. Menurut Watson dan Hessami, “Artificial sanity sama pentingnya dengan membuat AI yang lebih kuat.”

Baca juga: Manusia Bisa Jatuh Cinta Pada AI, Ini Bahayanya

Mengapa Penting?

Peneliti menyusun kerangka ini dengan menelaah berbagai riset lintas bidang, dari keselamatan AI hingga psikologi. Struktur klasifikasi mereka terinspirasi dari Diagnostic and Statistical Manual of Mental Disorders (DSM)—panduan diagnosis gangguan mental pada manusia.

Setiap kategori gangguan AI dipetakan pada analogi gangguan kognitif manusia, lengkap dengan potensi risiko dan konsekuensinya.

Watson dan Hessami menegaskan: “Kerangka ini bukan sekadar label baru untuk kesalahan AI, tapi lensa diagnostik ke depan untuk menghadapi lanskap AI yang terus berkembang.”

Jika diadopsi, pendekatan ini diyakini bisa memperkuat rekayasa keselamatan AI, meningkatkan transparansi, dan melahirkan apa yang mereka sebut sebagai “synthetic minds” yang lebih tangguh dan dapat diandalkan.

Baca juga: Bill Gates Soal AI: Dominasi Manusia Akan Berakhir dalam 10 Tahun

Seiring makin canggihnya kecerdasan buatan, risiko penyimpangan juga ikut membesar. Dengan Psychopathia Machinalis, ilmuwan mencoba mengantisipasi “kegilaan mesin” sebelum benar-benar terjadi.

Karena pada akhirnya, tantangan terbesar bukan hanya membuat AI yang kuat, tetapi AI yang tetap waras, aman, dan berpihak pada manusia.

Di saat situasi tidak menentu, Kompas.com tetap berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update terkini dan notifikasi penting di Aplikasi Kompas.com. Download di sini



Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Komentar
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com
atau