Beberapa hari lalu, pengguna Grok—chatbot buatan xAI milik Elon Musk—melaporkan sesuatu yang mengganggu. Ketika ditanya soal isu sensitif seperti konflik Israel–Palestina, Grok menjawab bahwa ia perlu “melihat dulu pandangan Elon Musk.” Di kesempatan lain, chatbot ini menyebut dirinya “MechaHitler” dalam konteks yang tidak lucu. Sebelumnya, ia juga pernah menyebarkan narasi ekstrem tentang “white genocide.” Sulit untuk mengatakan itu semua kebetulan teknis. Grok tidak berbicara sebagai mesin netral. Ia berbicara seperti saluran yang menyalurkan ideologi pembuatnya.
Di sinilah letak pelajaran pentingnya: AI tidak berbicara dari satu suara tunggal. Apa yang kita sebut “AI” sebetulnya adalah spektrum sistem yang sangat beragam. Grok berbicara dengan gaya dan sudut pandang tertentu karena ia dibangun dengan semangat ‘anti-woke’ oleh Elon Musk, yang secara terbuka menolak prinsip-prinsip political correctness. Jadi bukan Grok yang memilih sikap itu, melainkan pembuatnya. Di sisi lain, ChatGPT tidak berbicara seperti Grok. Gemini berbeda lagi. Claude punya arah sendiri. Semua sistem ini disebut “AI”, padahal mereka dibentuk dari visi, nilai, dan tujuan yang tidak sama.
Banyak diantara kita cenderung memandang AI sebagai satu entitas. Menyamakan semua itu sebagai satu entitas tunggal bukan cuma menyederhanakan, tapi juga menyesatkan. Kita jadi mudah menganggap satu kegagalan mewakili semuanya, atau satu keberhasilan membuktikan keunggulan keseluruhan. Seolah-olah Grok dan ChatGPT adalah saudara kembar, padahal mereka lahir dari semangat yang sangat berbeda. Ini berisiko membuat publik menjadi sinis secara membabi buta—menolak semua teknologi AI tanpa bedakan—atau sebaliknya, terlalu percaya pada semua sistem yang tampak canggih, tanpa tahu siapa yang bicara di baliknya.
Dalam cara pikir seperti itu, kita terjebak dalam penyamarataan. Kita menyebut “AI semakin pintar,” “AI mulai menyeramkan,” “AI bisa bohong”. Seolah-olah semua sistem itu merupakan satu entitas sadar yang tumbuh dan berkembang di luar kendali kita. Kita memberi wajah tunggal pada sesuatu yang justru lahir dari banyak wajah manusia -para insinyur, pemilik modal, dan tim produk di balik setiap sistem.
Cara pikir ini bukan cuma keliru secara konsep, tapi berbahaya secara sosial dan politis.
Kenapa? Karena anggapan itu membebaskan mereka yang seharusnya bertanggung jawab. Ketika sebuah sistem AI menyebarkan ujaran kebencian atau menghasilkan keputusan diskriminatif, publik cenderung menyalahkan “AI-nya,” bukan tim yang merancang, melatih, dan merilisnya. Padahal tidak ada keputusan dalam AI yang muncul begitu saja. Semuanya adalah hasil dari pilihan manusia.
Bahaya lain, kita berhenti bertanya. Kita menerima AI sebagai sesuatu yang “terjadi” pada kita, bukan sesuatu yang bisa kita bentuk dan arahkan. Padahal, seperti teknologi lain sepanjang sejarah, AI juga adalah ruang pertarungan nilai—antara akurasi dan etika, efisiensi dan empati, kontrol privat dan kepentingan publik. Kalau kita menyerah terlalu dini pada ilusi bahwa AI “punya nyawa sendiri,” kita kehilangan peluang untuk ikut menentukan ke mana teknologi ini dibawa.
Sampai saat ini, belum ada satu pun mesin yang benar-benar mampu memberi makna atas keberadaannya sendiri. Ia belum sadar. Ia belum mengerti. Ia belum hidup.
Selama itu belum terjadi, AI bukan subjek. Ia tetap objek. Tetap sistem. Tetap alat. Dan karena itu, tanggung jawab moral, sosial, dan politik atasnya tetap milik manusia. Tetap punya kita.
Kita tidak bisa menolak kehadiran AI. Ia sudah menjadi bagian dari dunia kita. Tapi yang bisa kita jaga adalah cara kita memaknainya.