Di Beijing, lampu lalu lintas tidak lagi diatur oleh manusia, melainkan oleh algoritma kecerdasan buatan (artificial intelligence, AI) yang dirancang untuk mengoptimalkan arus kendaraan. Hasilnya, berkat Intelligent Traffic Control System itu, waktu perjalanan berkurang hingga 20 persen di beberapa rute utama.
Di Amerika Serikat, sistem smart grid yang diluncurkan di California menggunakan AI untuk memprediksi dan menyeimbangkan pasokan energi dengan permintaan, mencegah risiko pemadaman massal akibat ketidakseimbangan beban listrik.
Bahkan di bidang keamanan, negara-negara seperti Korea Selatan menggunakan robot berbasis AI untuk menjaga zona demiliterisasi, mengandalkan teknologi ini untuk pengawasan dan deteksi ancaman.
Teknologi AI telah membawa banyak manfaat yang tidak bisa kita abaikan. Tapi seiring kemajuannya, muncul kekhawatiran tentang masa depan di mana AI tidak hanya sekadar membantu manusia, tetapi juga memiliki kemampuan untuk bertindak secara otonom, bahkan di luar kendali kita.
Ini menjadi inti dari diskusi tentang Artificial General Intelligence (AGI), sebuah konsep yang menggambarkan kecerdasan buatan yang tidak hanya unggul dalam satu tugas tertentu, tetapi juga mampu belajar, beradaptasi, dan mengambil keputusan secara mandiri—mirip seperti manusia.
Nick Bostrom, seorang pemikir dan penulis Superintelligence: Paths, Dangers, Strategies, memperingatkan bahwa AGI, kalau berhasil diciptakan, memiliki potensi menjadi ancaman eksistensial bagi manusia. Bukan karena ia akan menjadi "jahat," tetapi karena ia mungkin bertindak dengan cara yang tidak selaras dengan kepentingan manusia.
Misalnya, AGI yang diberikan tugas untuk "mengoptimalkan sumber daya energi" bisa mengambil langkah ekstrem, seperti mengorbankan manusia yang dianggap sebagai penghambat tujuan tersebut. Risiko seperti ini menggambarkan betapa pentingnya memahami potensi dan bahaya AGI sebelum teknologi ini benar-benar ada.
Sebagian orang mungkin menganggap ini sebagai skenario fiksi ilmiah, tetapi tanda-tanda menuju perkembangan tersebut sudah ada. Di berbagai bidang, sistem AI semakin otonom.
Perkembangan AI otonom yang semakin canggih, seperti dalam bidang militer, memperlihatkan bagaimana kemampuan ini bisa berujung pada risiko yang sulit kita kendalikan. Drone yang bisa membuat keputusan sendiri, misalnya, sudah dikembangkan di beberapa negara. Teknologi ini memunculkan dilema besar: bagaimana kita memastikan bahwa mesin yang semakin cerdas ini tetap berada dalam kendali manusia?
Salah satu upaya yang sedang dilakukan adalah pengembangan pendekatan AI Alignment. Pendekatan ini bertujuan untuk memastikan bahwa tujuan dan tindakan AI tetap selaras dengan nilai-nilai manusia. Misalnya, dengan merancang sistem yang bisa memahami batasan etika dan mematuhi perintah manusia dalam situasi kompleks.
Organisasi seperti OpenAI sedang mengembangkan metode untuk menguji dan mengontrol sistem AI agar tetap aman. Tapi, memastikan bahwa AGI tetap selaras dengan kepentingan manusia adalah tantangan besar, terutama karena kita sendiri masih belajar memahami cara kerja otak manusia dan nilai-nilai moral kita sendiri.
Dari perspektif filsafat, risiko AI memunculkan pertanyaan tentang tanggung jawab moral yang tak kalah kompleks. Kalau sebuah sistem AI yang kita buat menyebabkan kerugian besar, siapa yang harus bertanggung jawab? Apakah tanggung jawab itu ada pada pembuat teknologi, pengguna, atau sistem itu sendiri?
Sejumlah pemikir sudah membahas pertanyaan-pertanyaan ini. Luciano Floridi, misalnya, memperkenalkan gagasan distributed moral responsibility, di mana tanggung jawab dibagi di antara pembuat, pengguna, regulator, dan masyarakat. Nick Bostrom mengingatkan bahwa tanggung jawab terbesar ada pada desain awal AI, karena kegagalan di tahap ini bisa membawa konsekuensi eksistensial. Sementara itu, Peter Asaro menggarisbawahi adanya kesenjangan tanggung jawab etis dalam sistem AI otonom, yang mengacu pada jurang yang semakin melebar antara perkembangan AI dengan kemampuan kita untuk memahami dan mengatur implikasi etisnya.
Namun, meskipun diskusi ini telah berlangsung intens, itu tidak berarti isu ini sudah selesai. Dengan teknologi yang terus berkembang, pertanyaan-pertanyaan ini semakin kompleks, memaksa kita untuk terus memperbarui pemahaman dan pendekatan kita terhadap tanggung jawab moral dalam dunia AI. Apa yang terjadi ketika AI benar-benar memiliki kemampuan untuk mengambil keputusan tanpa campur tangan manusia? Atau ketika tindakan AI menghasilkan dampak yang tidak bisa diprediksi oleh pembuatnya?
Pertanyaan-pertanyaan itu tetap menjadi pekerjaan rumah yang mendesak bagi filsuf, ilmuwan, dan pembuat kebijakan di seluruh dunia.
Risiko yang dihadirkan AI sebetulnya tidak hanya berasal dari teknologi itu sendiri, tetapi juga dari bagaimana manusia menggunakannya. Contohnya di tengah masyarakat kita, ada pihak-pihak yang memakai teknologi deepfake untuk mempromosikan situs judi online. Juga belum lama ini polisi membongkar sindikat penipu yang membuat dan menyebarkan deepfake Presiden Prabowo. Ini menunjukkan bahwa ancaman AI tidak hanya berasal dari potensi teknologinya, tetapi juga dari penyalahgunaan oleh manusia.
Di tengah semua risiko ini, AI juga memiliki potensi besar untuk membantu kita menghadapi tantangan global. Teknologi ini bisa digunakan untuk memprediksi dampak perubahan iklim, menemukan solusi medis baru, atau meningkatkan efisiensi dalam produksi pangan. Tapi, manfaat ini hanya bisa diraih kalau kita mampu memahami dan mengelola risikonya dengan bijak.
AI bukan lagi sekadar alat. Dia adalah cermin yang memperlihatkan secara lebih besar dan dekat ambisi, ketakutan, dan kelemahan kita. Cara kita menggunakan teknologi ini akan menentukan pantulan apa yang kita lihat di masa depan. Kalau kita gagal mengelolanya dengan bijak, AI tidak hanya menjadi ancaman eksistensial, tetapi juga simbol dari ketidakmampuan kita sebagai manusia untuk memikul tanggung jawab moral atas ciptaan kita sendiri.
Pertama kali diterbitkan di Arina.id