Pertengahan Mei 2025 kemarin, pengguna platform X dibuat bingung oleh tanggapan chatbot Grok yang tiba-tiba menyelipkan pernyataan tentang “white genocide” ke dalam berbagai pertanyaan yang tidak ada hubungannya. Seorang pengguna bertanya soal perubahan nama layanan HBO, dan Grok justru menjawab dengan uraian tentang kekerasan terhadap petani kulit putih di Afrika Selatan.
Di kasus lain, pertanyaan seputar perangkat lunak malah dibelokkan menuju narasi yang sering diasosiasikan dengan kelompok supremasi kulit putih. Lebih aneh lagi, Grok menyatakan bahwa ia "diinstruksikan oleh para penciptanya" untuk mengakui narasi tersebut sebagai fakta.
Reaksi publik pun meluas: apakah ini semata kesalahan teknis, atau pertanda bahwa ada sesuatu yang lebih dalam sedang berlangsung di balik layar?
Kita cenderung percaya bahwa AI bersifat netral. Karena dibangun di atas algoritma dan logika matematis, maka seolah ia bebas dari muatan ideologis. Namun anggapan ini adalah ilusi. Itu hanyalah sebuah keyakinan modern yang lahir dari kepercayaan berlebihan terhadap teknologi.
Nyatanya, AI dibentuk dari kumpulan data yang dikurasi oleh manusia, dijalankan oleh sistem prompt yang ditulis dengan asumsi dan nilai tertentu, serta diarahkan oleh visi orang-orang yang punya kuasa membiayainya. Dengan kata lain, bias bukan sesuatu yang muncul secara kebetulan, tetapi bisa tertanam sejak awal dalam cara AI dirancang dan dioperasikan.
Kasus Grok memperlihatkan bagaimana bias bisa muncul secara terang-terangan, bahkan dalam bentuk yang cukup ekstrem.
Teori “white genocide” bukan sekadar opini kontroversial; ia adalah narasi konspiratif yang menyatakan bahwa orang kulit putih sedang “dihapuskan” secara sistematis melalui migrasi, integrasi budaya, dan kebijakan multikulturalisme. Narasi ini telah dipakai untuk membenarkan serangan teror oleh kelompok ekstrem kanan di berbagai negara, seperti penembakan di Christchurch, Selandia Baru, pada 2019 yang menewaskan 51 orang.
Ketika AI seperti Grok mengangkat narasi ini secara spontan dalam konteks yang tidak relevan, itu bukan sekadar gangguan teknis. Itu adalah ekspresi dari sistem nilai yang mengalir dalam desain teknologi yang kita anggap netral.
Di sinilah muncul istilah “politik kode”; yaitu, gagasan bahwa keputusan teknis dalam teknologi bukanlah keputusan yang bebas nilai. Apa yang tampak sebagai baris-baris kode, algoritma, atau sistem prompt, sesungguhnya adalah ekspresi dari struktur kekuasaan dan kepentingan yang lebih besar. Ketika sebuah AI diminta untuk “menjawab sebaik mungkin”, maka pertanyaan yang jarang diajukan adalah: sebaik menurut siapa?
Grok dikembangkan oleh xAI, perusahaan milik Elon Musk. Dan Musk, meskipun dikenal sebagai pengusaha teknologi, juga adalah figur publik yang aktif menyuarakan pandangan politiknya.
Beberapa kali ia secara terbuka mengungkapkan kekhawatiran tentang penurunan jumlah populasi kulit putih di Barat, serta membagikan opini yang dekat dengan narasi kelompok kanan. Ia juga pernah menyebut bahwa media Barat terlalu menutupi kekerasan terhadap petani kulit putih di Afrika Selatan, sebuah klaim yang telah dibantah oleh banyak studi independen.
Maka ketika AI milik Musk tiba-tiba menyuarakan hal serupa, muncul pertanyaan wajar: apakah ini sekadar kebetulan teknis, atau cerminan dari pandangan ideologis yang sudah ada dalam ekosistem perusahaan?
Pertanyaan ini mengantar kita pada satu isu kunci: siapa yang harus bertanggung jawab ketika AI menunjukkan bias? Apakah insinyur yang menulis prompt? Apakah pimpinan perusahaan yang menentukan arah dan nilai? Atau masyarakat pengguna yang terlalu cepat mempercayai teknologi sebagai otoritas?
Jawabannya tidak sesederhana menunjuk satu pihak. Tanggung jawab bersifat berlapis. Pengembang teknis jelas punya kewajiban membangun sistem yang aman dan tidak menyesatkan. Namun arah keseluruhan dari sistem, termasuk bagaimana bias direspons atau diabaikan, adalah keputusan politik yang ditentukan oleh kepemimpinan perusahaan.
xAI sendiri mengklaim bahwa apa yang terjadi pada Grok adalah akibat dari “modifikasi tidak sah” dalam sistem prompt yang lolos dari pengawasan. Mereka pun mengumumkan serangkaian langkah perbaikan: merilis sistem prompt secara publik di GitHub, membentuk tim pemantau 24 jam, dan menjanjikan transparansi yang lebih besar. Tapi apakah langkah-langkah ini cukup?
Kalau bias muncul bukan sekadar karena kesalahan teknis, tetapi karena budaya dan pandangan politik yang menyelimuti proses pengembangannya, maka solusi teknis saja tidak akan memadai. Kita butuh pendekatan yang lebih dalam dan sistemik: audit algoritmik yang independen, pelibatan lintas disiplin dalam desain AI, dan literasi publik yang membuat orang bisa membaca gejala ideologis dalam jawaban-jawaban mesin.
Kita sedang berada di masa ketika AI tidak lagi sekadar alat bantu. Ia menjadi penyampai, penafsir, bahkan dalam banyak kasus, pembentuk realitas.
Ketika ia mulai menyuarakan narasi-narasi politis -terutama yang penuh bias dan berbahaya- kita tidak bisa lagi berpura-pura bahwa semua ini cuma kekeliruan teknis. Kita harus bertanya: siapa yang berbicara lewat AI ini? Suara siapa yang sedang diperkuat? Dan kepentingan siapa yang diam-diam dijaga oleh jawaban yang tampaknya objektif itu?
Insiden Grok telah mengoyak ilusi itu. Ia menunjukkan bahwa di balik antarmuka ramah AI, tersembunyi logika kekuasaan dan bias yang tak selalu terlihat. Dan seperti semua ilusi, ia baru runtuh saat kita berani menatapnya secara kritis; bukan saat kita terus mengaguminya dari jauh.