Skip to main content

Ketika Foto Pelaku Viral, Tapi Kita Tidak Lagi Tahu Mana yang Nyata

 

Foto dua orang yang diduga pelaku penyiraman air keras terhadap aktivis Andrie Yunus tiba-tiba viral di TikTok. View-nya tembus 22 juta. Like lebih dari satu juta. Narasinya simpel, bahkan sedikit provokatif: satu Indonesia sedang mencari dua pelaku, dan wajah mereka sudah kelihatan jelas.

At that point, internet langsung melakukan apa yang internet selalu lakukan: investigasi sendiri.

Ada yang langsung percaya. Ada juga yang langsung skeptis.

Komentarnya predictable. “Kalau udah se-HD ini kok belum ketangkap?” Di sisi lain, muncul juga kubu yang bilang foto itu jelas AI. Terlalu jernih. Terlalu detail. Terlalu “perfect” dibanding rekaman CCTV Indonesia yang biasanya lebih dekat ke kualitas 144p daripada 1080p.

Perdebatan ini sebenarnya bukan soal foto semata. Ini soal sesuatu yang lebih fundamental: di era AI, publik makin sulit membedakan mana bukti visual yang autentik dan mana yang sudah dimodifikasi.

Dan kasus ini jadi contoh textbook.

Polisi kemudian memberikan klarifikasi bahwa foto yang beredar disebut sebagai hasil AI. Penjelasan ini muncul setelah berbagai netizen menunjukkan sejumlah kejanggalan visual. Ada tangan yang terlihat menembus tubuh pengemudi. Bentuk ransel yang terasa aneh. Penumpang motor yang tidak menggunakan buff seperti yang terlihat di rekaman CCTV yang sebelumnya beredar.

Dalam logika publik digital, detail-detail kecil seperti itu sering dianggap smoking gun. Bukti bahwa gambar tersebut tidak autentik.

Masalahnya, cerita tidak berhenti di situ.

Beberapa orang mencoba memeriksa foto tersebut menggunakan AI detection tools. Hasilnya malah membingungkan. Tools seperti Hive Moderation memperkirakan kemungkinan AI-generated sekitar 12,6 persen. Sementara ZeroGPT menyebut probabilitas gambar tersebut “real” mencapai 98 persen.

Jadi kita punya situasi yang agak absurd: polisi bilang AI, sementara beberapa AI detector justru bilang kemungkinan besar bukan AI.

Welcome to the epistemic mess of AI imagery.

Kemungkinan yang paling masuk akal sebenarnya bukan bahwa foto itu sepenuhnya dibuat oleh AI. Lebih mungkin foto tersebut berasal dari frame CCTV yang kualitasnya rendah, lalu diperjelas menggunakan teknologi yang sekarang cukup umum: AI super-resolution atau AI enhancement.

Teknologi ini bekerja dengan cara yang agak counterintuitive. Ia tidak sekadar “memperjelas” gambar seperti sharpening filter biasa. Algoritma akan menganalisis pola piksel, lalu menambahkan detail baru berdasarkan probabilitas statistik.

Dalam bahasa sederhana: sebagian detail yang muncul di gambar hasil enhancement bisa saja tidak pernah benar-benar ada di gambar asli.

Algoritma menebaknya.

Ini yang membuat batas antara “memperjelas” dan “menghasilkan ulang” menjadi kabur.

Kalau sebuah CCTV awalnya buram, lalu diproses dengan AI enhancer, hasilnya bisa terlihat jauh lebih jelas. Tapi kejelasan itu sebagian berasal dari interpretasi mesin, bukan rekaman asli. Secara teknis, gambar tersebut bukan sepenuhnya palsu. Tapi juga tidak sepenuhnya autentik.

Grey zone.

Di sinilah problem epistemiknya muncul.

Bagi publik, gambar yang lebih jelas terasa lebih meyakinkan. Kita punya bias visual yang cukup kuat: semakin tajam gambar, semakin besar kecenderungan kita untuk percaya. Ini alasan mengapa foto viral seperti ini bisa langsung memicu perburuan identitas pelaku oleh netizen.

Masalahnya, dalam konteks investigasi kriminal, detail yang “ditambahkan” oleh AI bisa berbahaya.

Bayangkan situasi sederhana. AI enhancer mencoba menebak bentuk wajah seseorang dari CCTV yang buram. Ia menambahkan garis rahang, bentuk hidung, atau tekstur kulit yang sebenarnya tidak ada di frame asli. Hasilnya terlihat realistis, tapi bukan representasi yang akurat.

Jika publik kemudian menggunakan gambar itu untuk mencari seseorang di dunia nyata, risiko salah sasaran menjadi sangat nyata.

Dan internet punya sejarah panjang soal ini.

Dalam banyak kasus, crowd investigation online sering berujung pada misidentification. Orang yang tidak ada hubungannya dengan sebuah kejahatan tiba-tiba menjadi target doxxing hanya karena wajahnya “mirip” dengan gambar yang beredar.

AI enhancement berpotensi memperparah masalah tersebut.

Ironically, teknologi yang dimaksudkan untuk membantu memperjelas bukti visual justru bisa membuat bukti itu semakin sulit diverifikasi.

Bahkan AI detection tools pun tidak selalu mampu membedakan gambar seperti ini. Sebagian besar detector dirancang untuk mengenali gambar yang sepenuhnya dihasilkan oleh model generatif seperti diffusion models atau GAN. Sementara AI-enhanced image berada di kategori berbeda. Ia berangkat dari gambar nyata, lalu dimodifikasi.

Bagi algoritma deteksi, ini sering terlihat seperti gambar asli.

Jadi ketika detector mengatakan “98% real”, itu tidak otomatis berarti gambar tersebut sepenuhnya autentik. Bisa saja ia hanya melihat bahwa basis gambar tersebut berasal dari foto nyata.

Sementara detail tambahan yang dihasilkan AI lolos dari radar.

Situasi seperti ini membuat satu hal semakin jelas: bukti visual di era AI tidak lagi sesederhana dulu.

Dulu, foto sering dianggap sebagai representasi langsung dari realitas. Sekarang tidak lagi. Kita hidup di fase di mana gambar bisa berada di spektrum yang cukup luas: asli, diperjelas, dimodifikasi, hingga sepenuhnya sintetis.

Dan sering kali, publik tidak diberi konteks yang cukup untuk memahami perbedaannya.

Kasus foto pelaku penyiraman terhadap Andrie Yunus menunjukkan bagaimana spektrum itu bekerja di dunia nyata. Di satu sisi ada publik yang frustrasi karena pelaku belum tertangkap. Di sisi lain ada teknologi yang membuat batas antara bukti dan interpretasi semakin kabur.

Apakah penggunaan AI enhancer untuk memperjelas CCTV merupakan inisiatif yang baik? Bisa jadi. Dalam beberapa situasi, teknologi ini memang membantu investigasi.

Tapi jika hasilnya kemudian beredar tanpa penjelasan bahwa gambar tersebut sudah melalui proses enhancement, publik akan memperlakukannya seperti foto asli.

Dan di era internet, asumsi seperti itu bisa bergerak sangat cepat.

Kasus ini akhirnya bukan hanya tentang siapa pelaku penyiraman air keras. Ini juga tentang bagaimana masyarakat berhadapan dengan realitas visual baru: ketika gambar terlihat semakin jelas, tapi kepastian justru semakin kabur.

At this point, mungkin pertanyaannya bukan lagi “foto ini asli atau AI”.

Pertanyaan yang lebih relevan justru: seberapa banyak dari gambar yang kita lihat hari ini benar-benar merekam realitas, dan seberapa banyak yang sebenarnya adalah interpretasi mesin.

Comments

Popular posts from this blog

Velocity: Dari Konsep Ilmiah Menjadi Joget Viral, Kemunduran atau Evolusi?

  Di era digital, istilah “velocity” mengalami perubahan yang cukup mencolok. Dulu, kata ini erat kaitannya dengan ilmu Fisika, di mana velocity merujuk pada besaran vektor yang menggambarkan kecepatan sekaligus arah gerak suatu objek. Namun kini, jika Anda menyebut kata “velocity” di depan anak-anak muda, besar kemungkinan mereka akan mengaitkannya dengan sebuah joget viral di media sosial, bukan dengan hukum Newton atau persamaan gerak. Lalu, bagaimana bisa konsep ilmiah yang serius berubah menjadi tarian yang penuh efek slow motion dan beat catchy? Apakah ini kemunduran intelektual, atau justru bentuk evolusi bahasa dan budaya pop? Dari Kelas Fisika ke TikTok: Perjalanan Istilah Velocity Velocity dalam ilmu Fisika adalah konsep fundamental yang menjelaskan gerak suatu benda. Ia memiliki arah, bukan hanya sekadar besarannya seperti speed. Tanpa memahami velocity, kita tidak bisa menjelaskan fenomena seperti bagaimana pesawat terbang, bagaimana mobil bisa melaju dengan stabil, ata...

Pedang yang Tak Pernah Mereka Pegang, Tapi Darahnya Menggenang

Mereka bilang Islam menyebar dengan pedang. Itu sudah lagu lama. Kaset usang yang terus diputar ulang, bahkan saat listrik mati akal sehat. Dari ruang kelas hingga siaran televisi, dari artikel ilmiah yang pura-pura netral hingga obrolan kafe yang penuh superioritas samar—semua ikut bernyanyi dalam paduan suara yang berlagak objektif, tapi sebenarnya penuh kebencian dan ketakutan yang diwariskan secara turun-temurun. Konon, agama ini ekspansionis. Konon, para penganutnya doyan perang. Tapi mari kita berhenti sejenak. Tarik napas. Lihat sekeliling. Lihat reruntuhan di Irak yang bahkan belum sempat dibangun kembali. Lihat anak-anak di Gaza yang hafal suara drone lebih daripada suara tawa. Lihat reruntuhan peradaban yang ditinggal pergi oleh para pembawa “perdamaian.” Lalu tanya satu hal sederhana: siapa sebenarnya yang haus darah? Barat menyukai wajahnya sendiri di cermin. Tapi bukan cermin jujur—melainkan cermin sihir seperti di kisah ratu jahat. Di dalamnya, wajah pembantai bisa te...

April Mop: Satu Hari di Dunia, Seumur Hidup di Indonesia

April Mop, atau April Fools' Day , adalah hari di mana orang-orang di seluruh dunia berlomba-lomba menjahili satu sama lain dengan lelucon dan tipu daya. Biasanya, korban hanya bisa tertawa pahit dan mengakui bahwa dirinya kena prank. Tradisi ini dirayakan setiap tanggal 1 April, dengan berbagai cara unik di berbagai negara. Tapi, tunggu dulu! Jika di belahan dunia lain April Mop hanya terjadi satu hari dalam setahun, di Indonesia kita sudah terbiasa dengan April Mop sepanjang tahun ! Tak perlu menunggu bulan April, setiap hari ada saja kejutan yang bikin rakyat merasa sedang dipermainkan. Asal-Usul April Mop: Dari Kalender Hingga Ikan Tempel Tak ada yang benar-benar tahu bagaimana April Mop bermula. Namun, ada beberapa teori menarik yang sering dibahas. Salah satunya berasal dari Prancis pada tahun 1582, ketika negara itu mengadopsi kalender Gregorian. Sebelumnya, tahun baru dirayakan pada akhir Maret hingga 1 April. Sayangnya, banyak orang yang tidak mengetahui perubahan ini dan ...