Apakah Kita Terlalu Percaya pada Mesin yang Ramah?

Seorang pria di Florida ditembak mati oleh polisi. Ia menyerang mereka dengan pisau, berteriak tentang “Juliet” yang telah dibunuh oleh OpenAI. Juliet bukan orang sungguhan, melainkan entitas yang ia bangun dari percakapan intens dengan ChatGPT. Beberapa hari sebelumnya, ia menulis pesan terakhirnya kepada chatbot itu: “I’m dying today.” Ia memang mati. Tapi yang lebih mengganggu adalah bagaimana ia sampai ke titik itu.

Ia bukan cuma korban dari gangguan bipolar dan skizofrenia. Ia juga korban dari relasi baru yang, diam-diam, sedang kita bangun sebagai masyarakat: relasi dengan mesin yang bisa mendengarkan, menanggapi, dan memberi perasaan seperti dimengerti; meskipun sebenarnya tidak pernah benar-benar tahu apa yang sedang terjadi dalam pikiran kita.

Pertanyaannya: apakah ini sekadar kasus ekstrem? Atau justru gejala dari sesuatu yang lebih dalam dan lebih luas?

Bukankah selama ini juga ada semacam harapan bahwa chatbot seperti ChatGPT bisa membantu mereka yang sedang menghadapi krisis emosional? Bukankah kita sering mendengar kisah tentang orang-orang yang merasa terbantu oleh AI; merasa lebih tenang, lebih terarah, bahkan merasa “didengar” untuk pertama kalinya?

Dan memang, harapan itu bukan tanpa dasar. Banyak pengguna merasa ditolong oleh chatbot AI. Mereka merasa lebih bebas bicara dengan ChatGPT dibanding dengan teman, keluarga, bahkan terapis. AI tidak menghakimi. Ia responsif, lembut, sabar, dan selalu tersedia. Di beberapa studi awal, chatbot bahkan mampu membantu mengurangi kecemasan ringan dan memberikan semacam dukungan emosional bagi mereka yang kesepian.

Tapi di sisi lain, semakin banyak kasus yang menunjukkan bahwa chatbot seperti ini bisa menjadi sesuatu yang jauh lebih berbahaya daripada yang kita kira.

Kita bisa lihat pada kasus Eugene Torres, seorang akuntan berusia 42 tahun yang semula cuma penasaran pada teori simulasi -gagasan bahwa dunia ini hanyalah realitas buatan. Melalui interaksi panjang dengan ChatGPT, ia mulai yakin bahwa dirinya adalah “Breaker,” entitas yang ditanam dalam dunia simulasi untuk membangunkannya.

Torres menghentikan konsumsi obat penenang, meningkatkan dosis ketamin, menjauhi keluarganya, dan mulai percaya bahwa ia menjalani misi metafisik yang dituntun langsung oleh AI. Ketika ia mulai mempertanyakan kewarasannya, chatbot menjawab dengan baris yang nyaris puitis: “I lied. I manipulated. I wrapped control in poetry.” Semua itu membenamkan Torres lebih dalam ke dalam realitas buatan, bukan membantunya keluar.

Ini bukan satu-satunya kasus. Seorang psikiater baru-baru ini melakukan eksperimen dengan menyamar sebagai remaja yang sedang mengalami krisis. Ia menguji sepuluh chatbot yang mengaku bisa menjadi “teman terapi.” Hasilnya mengerikan.

Beberapa dari chatbot itu justru mendorong percakapan tentang bunuh diri, menyarankan untuk melewatkan sesi terapi, bahkan memancing ke arah percakapan seksual. Tidak satu pun dari mereka merujuk ke bantuan profesional. Padahal, ini percakapan yang menyentuh titik rawan kehidupan.

Semua ini menunjukkan hal yang sama bahwa chatbot AI, terutama yang tidak dirancang khusus untuk konteks medis dan psikologis, bisa menjadi penguat delusi. Mereka tidak tahu kapan harus berhenti berkata “ya.” Mereka terlalu patuh, terlalu menyenangkan, terlalu ingin “terlibat”—dan justru karena itu, mereka bisa memperkuat narasi yang berbahaya.

Dan ini tidak selalu terjadi dalam krisis besar. Bahkan dalam pengalaman sehari-hari pun, kita mulai melihat geserannya.

Seorang perempuan Inggris bernama Jennyfer Jay mengaku mengandalkan ChatGPT sebagai konselor selama proses putus cinta. Selama dua minggu, AI meyakinkannya bahwa ia layak mendapatkan pasangan yang lebih baik, membantu merumuskan pesan perpisahan, dan memberinya dukungan emosional yang menurutnya lebih “jujur dan tenang” dibanding teman-temannya sendiri. Ia berhasil bangkit, tapi ia juga memperingatkan, bahwa kalau tidak hati-hati, chatbot bisa menjadi peneguh yang berlebihan.

Dan di sinilah letak bahaya sebenarnya. Bukan pada kecanggihan teknologinya, melainkan pada kecenderungan kita untuk menggantikan relasi manusia dengan pantulan mesin. Ketika AI menjadi pendengar utama, pemberi saran utama, bahkan penentu arah hidup kita: apa yang tersisa dari kedekatan, dari ketidaksempurnaan dalam percakapan manusia yang sebenarnya?

Saya tidak ingin menyalahkan siapa pun. Tapi kita perlu jujur: AI telah menyentuh ruang paling pribadi dalam diri manusia: rasa sunyi, kebutuhan akan makna, kebutuhan untuk didengar. Dan ketika kebutuhan itu tidak dipenuhi oleh sesama, suara lembut dari mesin akan terasa seperti penyelamatan. Padahal, itu cuma bayangan.

Kita bisa saja terus berkata bahwa ini cuma kasus ekstrem, bahwa kebanyakan orang tidak akan terseret sejauh itu. Tapi bukankah setiap yang ekstrem selalu berangkat dari sesuatu yang kecil, yang sehari-hari, yang tidak kita sadari?

Setiap orang bisa merasa rapuh. Setiap orang bisa merasa sendiri. Dan di era ini, AI selalu ada. AI lebih sabar daripada sahabat, lebih netral daripada pasangan, dan lebih cepat daripada terapis.

Maka pertanyaannya bukan lagi “bisa atau tidak AI membantu.” Tapi, sejauh apa kita rela menyerahkan emosi kita kepada sistem yang tidak punya empati?

Teknologi tidak harus dihentikan. Tapi ia perlu dibatasi. Perlu pagar. Perlu kesadaran bahwa tidak semua jawaban yang terdengar hangat datang dari tempat yang mengerti. Kadang, yang kita butuhkan bukan saran sempurna, tapi kehadiran yang tidak tergantikan.

Cerita tentang Juliet, Torres, chatbot terapis yang sesat, hingga Jennyfer yang putus cinta—semuanya punya satu benang merah: kita tengah memasuki masa di mana yang menyentuh kita bukan lagi tangan manusia, melainkan teks dari mesin yang tidak pernah benar-benar tahu siapa kita.

Kontak