You cannot trust what you read.
You cannot trust what you hear.
And now, thanks to AI, you cannot even trust what you see.
Pernyataan ini, yang dahulu mungkin terdengar hiperbolis, kini menjadi diagnosis paling akurat atas zaman kita. Dunia yang dibangun di atas rasionalitas dan bukti empiris tengah runtuh oleh kekuatan baru bernama artificial intelligence.
Ketika Alibaba memperkenalkan Wan 2.2, publik dibuat terperangah: sistem ini mampu meniru suara seseorang, memetakan gerak tubuh ke wajah lain, dan menciptakan video yang sepenuhnya realistis. Dalam hitungan detik, wajah, suara, bahkan gaya bicara seseorang bisa direkonstruksi tanpa jejak palsu yang kentara.
Bayangkan skenario sederhana: orang tua Anda menerima panggilan video dari “Anda” yang memohon uang. Wajahnya Anda. Suaranya juga Anda. Gerakan bibirnya sinkron sempurna dengan tutur kata yang terdengar. Namun itu bukan Anda. Itu Anda versi buatan mesin.
Inilah puncak dari post-truth society, di mana kebohongan bukan lagi diciptakan melalui kata-kata, tetapi melalui bentuk, suara, dan ekspresi yang tampak nyata.
Realitas yang Dapat Direkayasa
AI generatif seperti Wan 2.2 menggunakan sistem multimodal deep learning — model yang belajar dari jutaan data teks, gambar, dan suara untuk memahami hubungan lintas medium. Teknologi ini melampaui batas sebelumnya: ia tidak sekadar menyalin, melainkan mencipta realitas baru berdasarkan probabilitas kemiripan.
Sebagaimana dikatakan oleh Jean Baudrillard dalam teorinya tentang simulacra and simulation, dunia modern telah dipenuhi representasi yang meniru kenyataan hingga pada akhirnya menggantikan kenyataan itu sendiri. Wan 2.2 dan model serupa adalah bentuk paling konkret dari simulakra digital. Kita tidak lagi berhadapan dengan foto palsu atau kutipan palsu, melainkan dengan kenyataan palsu yang tampil sempurna.
Dalam konteks sosial-politik, ini menciptakan ancaman yang luar biasa. Bayangkan sebuah video “konferensi pers” calon presiden yang menyerang lawan politiknya, atau “rekaman suara” seorang menteri yang diduga menerima suap. Semua bisa tampak meyakinkan, lengkap dengan ekspresi wajah dan nada suara yang emosional.
Kebenaran, yang dulu bisa diverifikasi lewat bukti visual dan audio, kini menjadi konstruksi yang cair.
Krisis Epistemologis dan Erosi Kepercayaan
Dalam tradisi ilmu pengetahuan, kebenaran selalu diasumsikan dapat diverifikasi melalui observasi dan logika. Namun ketika observasi itu sendiri bisa dimanipulasi, maka epistemologi modern kehilangan fondasinya.
Kita memasuki era yang bisa disebut krisis epistemologis digital: di mana fakta, opini, dan rekayasa bercampur tanpa pembeda yang jelas. Orang tak lagi bertanya, apakah ini benar?, melainkan siapa yang paling meyakinkan?
Fenomena ini juga menggerus dasar kehidupan sosial: kepercayaan.
Dalam keluarga, seseorang bisa menjadi korban penipuan video deepfake yang menggunakan wajah anaknya. Dalam politik, kepercayaan publik terhadap lembaga negara bisa runtuh hanya karena satu video manipulatif yang viral di media sosial.
Ketika semua bisa dipalsukan, kepercayaan menjadi mata uang paling langka di dunia digital.
Dari Literasi Digital ke Literasi Realitas
Literasi digital selama ini berfokus pada cara memeriksa tautan, sumber berita, atau bias media. Namun itu tidak lagi cukup. Dalam dunia di mana gambar dan suara dapat dipalsukan dengan sempurna, kita membutuhkan tingkat literasi baru: literasi realitas.
Literasi realitas menuntut kemampuan untuk memahami konteks, menilai motif di balik pesan, dan mengidentifikasi kemungkinan manipulasi non-verbal. Ia menuntut kesadaran bahwa keaslian visual tidak lagi menjadi jaminan kebenaran.
Pemerintah, lembaga pendidikan, dan media massa memiliki tanggung jawab moral untuk membangun sistem verifikasi yang lebih transparan dan adaptif terhadap teknologi baru. AI hanya bisa dilawan dengan AI: authenticity detection tools yang mampu mengenali pola sintesis digital menjadi kebutuhan mendesak, bukan lagi proyek riset masa depan.
Manusia dalam Bayang-Bayang Simulasi
Ironisnya, teknologi yang lahir dari keinginan manusia untuk mereplikasi realitas justru menenggelamkan realitas itu sendiri. AI yang awalnya diciptakan untuk membantu menciptakan konten, kini mengancam otentisitas identitas manusia.
Di titik ini, kita mungkin harus kembali pada pertanyaan paling mendasar:
Apakah yang membuat manusia berbeda dari mesin? Jika suara, wajah, dan emosi bisa ditiru secara sempurna, apakah yang tersisa dari keaslian manusia?
Filsuf Hannah Arendt pernah menulis bahwa “kebenaran faktual adalah syarat bagi politik yang rasional.” Jika kebenaran itu lenyap, maka ruang publik pun akan berubah menjadi panggung sandiwara besar—dan demokrasi kehilangan pijakan moralnya.
Penutup: Kebenaran di Ujung Algoritma
Kita hidup di masa di mana melihat tidak lagi berarti percaya.
Video bukan lagi bukti. Suara bukan lagi kesaksian.
Ketika realitas bisa dikonstruksi oleh kode, maka pertanyaan terbesar abad ini bukan lagi apa yang benar, melainkan siapa yang benar-benar berbicara.
Mungkin inilah paradoks terbesar dari peradaban digital:
di tengah kemampuan luar biasa manusia menciptakan kecerdasan buatan,
kita justru kehilangan kemampuan paling dasar — untuk membedakan mana yang nyata dan mana yang tidak.






















