Bandung (ANTARA) - Belakangan ini, konten hoaks berupa foto dan video bencana yang dibuat dengan kecerdasan buatan (AI) makin sering beredar.
Banyak yang terlihat nyata sehingga mudah memicu kepanikan publik, terutama saat terjadi bencana alam seperti banjir dan longsor di beberapa daerah.
Fenomena ini muncul karena alat AI generatif bisa membuat gambar berkualitas tinggi hanya dari perintah teks.
Akibatnya, foto palsu dapat tersebar cepat sebelum sempat diverifikasi.
Meski mengganggu, hoaks visual sebenarnya bisa dikenali dengan beberapa langkah pengecekan sederhana. Masyarakat hanya perlu meluangkan waktu sebentar sebelum ikut menyebarkan informasi.
Cara Membedakan Foto/Video AI dengan Asli:
- Periksa detail aneh
Lihat jari, gigi, tekstur kulit, bayangan, atau objek di latar belakang. Gambar AI sering punya detail yang tidak wajar atau tidak simetris.
- Cek metadata gambar
Gunakan situs pengecek metadata (misal Exif Viewer). Foto AI umumnya tidak memiliki data kamera, model perangkat, atau timestamp yang jelas.
- Reverse image search
Unggah gambar ke Google Image atau TinEye. Jika hasilnya menunjukkan bahwa foto baru muncul belakangan atau tidak terkait peristiwa bencana tertentu, patut dicurigai.
- Telusuri sumber awal unggahan
Cek apakah foto berasal dari akun resmi, lembaga kredibel, atau akun anonim. Konten dari akun baru tanpa riwayat unggahan biasanya lebih meragukan.
- Perhatikan kualitas dan komposisi
Foto AI sering tampak terlalu sempurna: warna sangat rapi, kontras tinggi, atau komposisinya seperti foto profesional meski diklaim diambil saat situasi kacau.
- Bandingkan dengan laporan media
Jika tidak ada media resmi yang menayangkan foto tersebut, besar kemungkinan gambar itu palsu atau hasil manipulasi.
Dengan meningkatnya kemampuan AI, masyarakat perlu semakin hati-hati dalam menyaring informasi visual. Foto bencana yang tampak “terlalu dramatis” justru perlu dicurigai.
Tetap pastikan kebenarannya sebelum membagikan, agar tidak ikut memperluas hoaks yang bisa memicu kepanikan di jagat maya.
