Suatu hari nanti, kita mungkin tidak bisa lagi membedakan mana suara manusia dan mana suara mesin. Lebih ngeri lagi: kita mungkin tidak bisa membedakan mana yang benar dan mana yang cuma terdengar benar.
Ketika sebuah model AI (artificial intelligence) menjawab dengan percaya diri, menyebut sumber, memberi kutipan, dan menyusun argumen dengan gaya yang fasih, kita cenderung percaya. Tapi apa jadinya ketika semua itu cuma karangan belaka -diciptakan dengan penuh gaya tapi tanpa dasar? Itulah yang disebut sebagai halusinasi AI: informasi yang terdengar sahih padahal palsu, disampaikan bukan karena niat menyesatkan, tapi karena sistem tidak tahu perbedaan antara kenyataan dan rekaan.
Pertanyaannya sekarang: apakah halusinasi ini cuma cacat teknis yang bisa diperbaiki, ataukah justru bagian dari kodrat AI yang tidak bisa dihilangkan?
Kalau ini sekadar kesalahan sistem, maka kita cuma butuh teknisi yang lebih cerdas. Tapi kalau ini memang bagian dari cara kerja AI itu sendiri -hasil dari model yang dibangun untuk memprediksi kata demi kata berdasarkan kemungkinan statistik- maka kita sedang menghadapi sesuatu yang lebih serius. Kita bukan cuma berhadapan dengan mesin yang bisa salah, tapi dengan sistem yang bisa menyusun kebohongan yang meyakinkan, tanpa sadar bahwa ia sedang berbohong.
Dan itu bukan ancaman teknologi. Itu ancaman bagi manusia yang tidak bisa berpikir kritis. Karena kalau publik tidak punya kemampuan membaca dengan sadar, tidak punya kecakapan literasi digital dan epistemik yang memadai, maka kita akan melihat generasi yang dibentuk oleh ilusi, bukan oleh pemahaman. Kita akan menjadi rombongan zombie di era AI -tidak mati, tapi tidak berpikir.
Yang membuat situasinya semakin kompleks adalah kenyataan bahwa halusinasi justru meningkat seiring meningkatnya kecanggihan. Data dari OpenAI memperlihatkan bahwa model reasoning terbaru mereka -o3 dan o4-mini- punya tingkat halusinasi sebesar 33% dan 48%. Ini jauh lebih tinggi dibandingkan model-model sebelumnya. Artinya, semakin tinggi kemampuan berpikir, bernalar, dan menyusun argumen yang dipunyai AI, semakin tinggi pula potensi ia untuk mengarang-ngarang hal yang tidak benar, tapi terdengar benar.
Kita dibuat sadar bahwa kecerdasan mesin ternyata tidak identik dengan kebenaran. Justru sebaliknya: semakin pintar mesin bicara, semakin perlu kita waspada.
Dari situ, muncul pertanyaan lain: apakah tanpa “halusinasi” -tanpa keberanian untuk mengada, untuk menyeberang dari yang sudah mapan ke wilayah dugaan dan spekulasi- kita (dan AI) bisa benar-benar kreatif?
Manusia sendiri tidak sepenuhnya hidup dari fakta. Kita menemukan teori, menulis fiksi, merancang hipotesis, dan bermimpi tentang hal-hal yang belum ada. Banyak penemuan besar dalam sejarah justru bermula dari “kesalahan” yang dianggap aneh. Newton membayangkan apel dan gravitasi, Darwin berlayar lalu menebak pola evolusi, Einstein mencurigai waktu bisa melengkung. Apa yang disebut “inovasi” sering kali lahir dari lompatan imajinasi -yang kalau dinilai dari kebenaran faktual pada saat itu, mungkin disebut mengada-ada.
Kalau begitu, bukankah AI yang bisa “berhalusinasi” justru menyimpan potensi untuk melakukan lompatan serupa? Bukankah kita ingin AI yang tidak cuma menyalin masa lalu, tapi menciptakan masa depan?
Masalahnya, kita belum tahu bagaimana membedakan antara halusinasi yang membahayakan dan halusinasi yang mencerahkan. Belum ada sistem yang bisa memberi tanda bahwa satu kalimat tertentu berasal dari pengetahuan yang solid, sementara kalimat berikutnya adalah rekaan. Semuanya mengalir dengan gaya yang sama, kepercayaan diri yang sama, dan struktur kalimat yang sama. Bahkan saat AI salah besar, ia tetap terdengar benar.
Di sinilah letak tantangan kita sebagai manusia. Bukan pada kemampuan menciptakan mesin yang tidak pernah salah, tapi pada kemampuan membaca dengan penuh kesadaran bahwa mesin bisa salah kapan saja.
Kita tidak perlu membuat AI berhenti menulis. Yang kita perlukan adalah kemampuan untuk membaca AI seperti kita membaca karya manusia: dengan kesadaran akan bias, konteks, dan kemungkinan kekeliruan.
Halusinasi dalam AI tidak akan bisa dihilangkan sepenuhnya. Ia adalah produk dari sistem prediksi probabilistik, dan selama kita ingin AI mampu “mengarang” solusi, ide, atau saran, maka selama itu pula risiko halusinasi akan tetap ada. Justru di situlah kita diingatkan: AI bukan pengganti akal sehat.
Tugas kita ke depan bukan sekadar mengembangkan AI yang lebih canggih, tapi menciptakan budaya pembaca yang lebih kritis. Literasi baru bukan cuma tentang bisa membaca dan menulis, tapi bisa menyaring, meragukan, dan mengonfirmasi. Bisa membedakan mana suara mesin, mana suara kebenaran.
Karena di masa depan, hal yang paling kita butuhkan bukan mesin yang tidak pernah salah. Tapi manusia yang tetap bisa berpikir, bahkan ketika mesin mulai bicara.