Foto dua orang yang diduga pelaku penyiraman air keras terhadap aktivis Andrie Yunus tiba-tiba viral di TikTok. View-nya tembus 22 juta. Like lebih dari satu juta. Narasinya simpel, bahkan sedikit provokatif: satu Indonesia sedang mencari dua pelaku, dan wajah mereka sudah kelihatan jelas.
At that point, internet langsung melakukan apa yang internet selalu lakukan: investigasi sendiri.
Ada yang langsung percaya. Ada juga yang langsung skeptis.
Komentarnya predictable. “Kalau udah se-HD ini kok belum ketangkap?” Di sisi lain, muncul juga kubu yang bilang foto itu jelas AI. Terlalu jernih. Terlalu detail. Terlalu “perfect” dibanding rekaman CCTV Indonesia yang biasanya lebih dekat ke kualitas 144p daripada 1080p.
Perdebatan ini sebenarnya bukan soal foto semata. Ini soal sesuatu yang lebih fundamental: di era AI, publik makin sulit membedakan mana bukti visual yang autentik dan mana yang sudah dimodifikasi.
Dan kasus ini jadi contoh textbook.
Polisi kemudian memberikan klarifikasi bahwa foto yang beredar disebut sebagai hasil AI. Penjelasan ini muncul setelah berbagai netizen menunjukkan sejumlah kejanggalan visual. Ada tangan yang terlihat menembus tubuh pengemudi. Bentuk ransel yang terasa aneh. Penumpang motor yang tidak menggunakan buff seperti yang terlihat di rekaman CCTV yang sebelumnya beredar.
Dalam logika publik digital, detail-detail kecil seperti itu sering dianggap smoking gun. Bukti bahwa gambar tersebut tidak autentik.
Masalahnya, cerita tidak berhenti di situ.
Beberapa orang mencoba memeriksa foto tersebut menggunakan AI detection tools. Hasilnya malah membingungkan. Tools seperti Hive Moderation memperkirakan kemungkinan AI-generated sekitar 12,6 persen. Sementara ZeroGPT menyebut probabilitas gambar tersebut “real” mencapai 98 persen.
Jadi kita punya situasi yang agak absurd: polisi bilang AI, sementara beberapa AI detector justru bilang kemungkinan besar bukan AI.
Welcome to the epistemic mess of AI imagery.
Kemungkinan yang paling masuk akal sebenarnya bukan bahwa foto itu sepenuhnya dibuat oleh AI. Lebih mungkin foto tersebut berasal dari frame CCTV yang kualitasnya rendah, lalu diperjelas menggunakan teknologi yang sekarang cukup umum: AI super-resolution atau AI enhancement.
Teknologi ini bekerja dengan cara yang agak counterintuitive. Ia tidak sekadar “memperjelas” gambar seperti sharpening filter biasa. Algoritma akan menganalisis pola piksel, lalu menambahkan detail baru berdasarkan probabilitas statistik.
Dalam bahasa sederhana: sebagian detail yang muncul di gambar hasil enhancement bisa saja tidak pernah benar-benar ada di gambar asli.
Algoritma menebaknya.
Ini yang membuat batas antara “memperjelas” dan “menghasilkan ulang” menjadi kabur.
Kalau sebuah CCTV awalnya buram, lalu diproses dengan AI enhancer, hasilnya bisa terlihat jauh lebih jelas. Tapi kejelasan itu sebagian berasal dari interpretasi mesin, bukan rekaman asli. Secara teknis, gambar tersebut bukan sepenuhnya palsu. Tapi juga tidak sepenuhnya autentik.
Grey zone.
Di sinilah problem epistemiknya muncul.
Bagi publik, gambar yang lebih jelas terasa lebih meyakinkan. Kita punya bias visual yang cukup kuat: semakin tajam gambar, semakin besar kecenderungan kita untuk percaya. Ini alasan mengapa foto viral seperti ini bisa langsung memicu perburuan identitas pelaku oleh netizen.
Masalahnya, dalam konteks investigasi kriminal, detail yang “ditambahkan” oleh AI bisa berbahaya.
Bayangkan situasi sederhana. AI enhancer mencoba menebak bentuk wajah seseorang dari CCTV yang buram. Ia menambahkan garis rahang, bentuk hidung, atau tekstur kulit yang sebenarnya tidak ada di frame asli. Hasilnya terlihat realistis, tapi bukan representasi yang akurat.
Jika publik kemudian menggunakan gambar itu untuk mencari seseorang di dunia nyata, risiko salah sasaran menjadi sangat nyata.
Dan internet punya sejarah panjang soal ini.
Dalam banyak kasus, crowd investigation online sering berujung pada misidentification. Orang yang tidak ada hubungannya dengan sebuah kejahatan tiba-tiba menjadi target doxxing hanya karena wajahnya “mirip” dengan gambar yang beredar.
AI enhancement berpotensi memperparah masalah tersebut.
Ironically, teknologi yang dimaksudkan untuk membantu memperjelas bukti visual justru bisa membuat bukti itu semakin sulit diverifikasi.
Bahkan AI detection tools pun tidak selalu mampu membedakan gambar seperti ini. Sebagian besar detector dirancang untuk mengenali gambar yang sepenuhnya dihasilkan oleh model generatif seperti diffusion models atau GAN. Sementara AI-enhanced image berada di kategori berbeda. Ia berangkat dari gambar nyata, lalu dimodifikasi.
Bagi algoritma deteksi, ini sering terlihat seperti gambar asli.
Jadi ketika detector mengatakan “98% real”, itu tidak otomatis berarti gambar tersebut sepenuhnya autentik. Bisa saja ia hanya melihat bahwa basis gambar tersebut berasal dari foto nyata.
Sementara detail tambahan yang dihasilkan AI lolos dari radar.
Situasi seperti ini membuat satu hal semakin jelas: bukti visual di era AI tidak lagi sesederhana dulu.
Dulu, foto sering dianggap sebagai representasi langsung dari realitas. Sekarang tidak lagi. Kita hidup di fase di mana gambar bisa berada di spektrum yang cukup luas: asli, diperjelas, dimodifikasi, hingga sepenuhnya sintetis.
Dan sering kali, publik tidak diberi konteks yang cukup untuk memahami perbedaannya.
Kasus foto pelaku penyiraman terhadap Andrie Yunus menunjukkan bagaimana spektrum itu bekerja di dunia nyata. Di satu sisi ada publik yang frustrasi karena pelaku belum tertangkap. Di sisi lain ada teknologi yang membuat batas antara bukti dan interpretasi semakin kabur.
Apakah penggunaan AI enhancer untuk memperjelas CCTV merupakan inisiatif yang baik? Bisa jadi. Dalam beberapa situasi, teknologi ini memang membantu investigasi.
Tapi jika hasilnya kemudian beredar tanpa penjelasan bahwa gambar tersebut sudah melalui proses enhancement, publik akan memperlakukannya seperti foto asli.
Dan di era internet, asumsi seperti itu bisa bergerak sangat cepat.
Kasus ini akhirnya bukan hanya tentang siapa pelaku penyiraman air keras. Ini juga tentang bagaimana masyarakat berhadapan dengan realitas visual baru: ketika gambar terlihat semakin jelas, tapi kepastian justru semakin kabur.
At this point, mungkin pertanyaannya bukan lagi “foto ini asli atau AI”.
Pertanyaan yang lebih relevan justru: seberapa banyak dari gambar yang kita lihat hari ini benar-benar merekam realitas, dan seberapa banyak yang sebenarnya adalah interpretasi mesin.
- Get link
- X
- Other Apps
- Get link
- X
- Other Apps
Comments
Post a Comment