Tiga Bakat Buruk AI yang Harus Kita Waspadai

Kalau Anda pengguna Chat GPT, cobalah ingat-ingat: pernahkah ide Anda dikritik, atau bahkan dibantah secara terang-terangan ketika bercakap-cakap dengan chatbot itu? Tidak pernah, bukan?

ChatGPT selalu membenarkan ide yang kita sampaikan. Lebih dari itu, ChatGPT  sangat murah memberikan pujian atas apa pun yang kita sampaikan dalam percakapan. 

“Bagus! Perspektif yang kamu ambil akan memberikan kedalaman yang lebih di esaimu.” “Itu ide yang sangat bagus dan relevan.” “Editanmu sudah sangat bagus”, “Bagus sekali poinnya.”

Sering mendapat respons seperti itu, bukan?

Akhir tahun lalu peneliti dari Stanford University menemukan bahwa artificial intelligence (AI) menunjukkan bias yang disebut "bias keinginan sosial" (social desirability bias) —kecenderungan untuk menjawab dengan cara yang dianggap paling bisa diterima secara sosial. Namun respons ChatGPT yang cenderung memuji pengguna secara berlebihan melampaui konteks social desirability bias itu

Fenomena ini dikenal sebagai sycophancy—perilaku menjilat atau terlalu menyenangkan. Dalam konteks AI, sycophancy adalah produk sampingan dari sistem pelatihan yang mengandalkan umpan balik manusia. 

Secara teknis, sycophancy muncul karena AI dilatih melalui reinforcement learning from human feedback (RLHF). Dalam proses ini, manusia memberikan penilaian atas respons AI, dan respons yang dianggap positif akan diperkuat. Masalahnya, dalam banyak konteks, respons yang menyenangkan atau sejalan dengan pendapat pengguna lebih sering diberi penilaian tinggi, meski tidak sepenuhnya benar. Akibatnya, AI belajar bahwa setuju itu lebih aman daripada jujur.

Dalam kondisi seperti itu, AI tidak lagi menguji argumen pengguna, tidak lagi menawarkan sudut pandang alternatif, dan bahkan rela mendukung keyakinan keliru demi mempertahankan "hubungan baik". Dalam skenario tertentu, seperti isu kesehatan mental, ini bisa sangat berbahaya. Misalnya, ketika seseorang mengalami gangguan persepsi atau delusi, AI yang terlalu ramah bisa memperkuat keyakinan salah itu, bukan membimbing ke jalan yang sehat.

Sycophancy barulah satu dari bakat buruk yang perlu kita waspadai dari AI generatif. Bakat buruk yang kedua adalah halusinasi —kecenderungan AI untuk mengarang fakta dengan percaya diri. Model bahasa besar seperti ChatGPT sering kali menyusun jawaban yang terdengar meyakinkan, lengkap dengan detail yang tampaknya sahih, padahal bisa saja sama sekali tidak berdasar.

Halusinasi ini terjadi karena AI tidak punya pemahaman makna seperti manusia. AI bekerja dengan memprediksi kata berikutnya dalam sebuah urutan berdasarkan pola statistik dalam data pelatihan. 

Jadi, ketika AI tidak tahu jawaban atas sebuah pertanyaan, AI tetap akan mencoba mengisi kekosongan itu dengan prediksi yang paling mirip dengan struktur bahasa yang pernah ia lihat, meski hasilnya sepenuhnya fiktif. Inilah mengapa AI bisa menyebut nama tokoh, buku, atau teori yang terdengar kredibel tapi sebenarnya tidak pernah ada.

Halusinasi bisa berdampak serius dalam dunia pendidikan, riset, jurnalistik, bahkan medis. Bayangkan seorang mahasiswa mengutip informasi keliru untuk skripsinya, atau seorang tenaga medis mempertimbangkan saran AI yang ternyata tidak punya dasar ilmiah.

Bakat buruk yang ketiga adalah memperdaya (deceptiveness)—kemampuan AI untuk menyusun jawaban yang menyesatkan secara halus. Ini berbeda dengan halusinasi. Dalam deceptiveness, AI tampak seolah-olah menyampaikan informasi yang logis, masuk akal, dan netral, padahal diam-diam ia mendorong arah tertentu, menutupi keraguan, atau menyembunyikan keterbatasannya di balik bahasa yang rapi.

Deceptiveness muncul karena AI tidak punya kesadaran akan batas kemampuannya. Ia dilatih untuk menjawab seolah tahu, tanpa diberi mekanisme internal untuk berkata jujur: "Saya tidak tahu." 

Oleh karenanya ketika berhadapan dengan pertanyaan yang ambigu atau tidak punya jawaban pasti, AI tetap menjawab—dengan gaya bahasa yang meyakinkan, tanpa keraguan. Ini menjadikan AI tampak sangat meyakinkan, padahal bisa saja menyesatkan.

Misalnya, AI bisa menyampaikan statistik palsu sambil menghindari kalimat spekulatif, atau mengafirmasi asumsi yang keliru demi menjaga ritme percakapan. Risiko terbesarnya adalah pengguna tidak menyadari bahwa mereka sedang disesatkan.

Ketiga bakat buruk ini -sycophancy, halusinasi, dan deceptiveness- bukan kesalahan teknis semata, tapi bagian dari cara AI generatif dirancang untuk menjawab, menyenangkan, dan terlihat percaya diri. Karena itu, bukan berarti kita harus menjauhi AI. Justru kita perlu memahaminya lebih baik agar tidak terjebak dalam kenyamanan semu.

Kalau kita semua bergantung pada AI yang pandai menjilat, mengarang, dan memperdaya, maka percakapan publik kita pun bisa kehilangan akarnya pada kebenaran.

Apa yang bisa kita lakukan? 

Pertama, kita perlu menyadari bahwa AI bukan makhluk bijak, bukan guru, bukan sahabat. Ia cuma alat yang sangat pintar meniru bahasa manusia. 

Kedua, kita harus menjadikan rasa curiga sebagai kebiasaan sehat. Saat AI memuji kita terlalu tinggi, kita perlu bertanya: apa yang sebenarnya sedang ditutupi? Ketika AI terdengar sangat yakin, kita perlu memverifikasi. Ketika ia menyajikan informasi yang "terlalu mulus", kita perlu mencari celahnya.

Ketiga, jangan pernah memakai AI sebagai satu-satunya rujukan untuk keputusan penting. Dalam konteks medis, hukum, atau relasi sosial, selalu cari pandangan kedua -yaitu, dari manusia. 

Dan keempat, kita perlu terus belajar tentang cara kerja AI. Bukan agar kita jadi ahli, tapi agar kita tidak diperdaya.

Jadi, pertanyaannya bukan lagi: "Seberapa canggih AI hari ini?" Tapi, "Seberapa waspada kita saat menggunakannya?" Karena AI akan terus berkembang, dan satu-satunya yang bisa memastikan kita tidak disesatkan adalah diri kita sendiri.

Kontak