VIRGINIA (Arrahmah.id) – Sebuah gambar palsu yang menunjukkan ledakan besar di dekat Pentagon dibagikan di media sosial pada Senin (22/5/2023) telah memicu penurunan singkat di pasar saham.
Dalam beberapa menit, gelombang akun media sosial termasuk beberapa akun terverifikasi membagikan gambar palsu, semakin menambah kebingungan.
Para pejabat kemudian mengonfirmasi bahwa tidak ada insiden seperti itu yang terjadi.
Nick Waters dari Bellingcat, grup verifikasi berita online, menunjukkan beberapa masalah penting yang perlu diperhatikan ketika terkait gambar viral tersebut, diantaranya:
- Bahwa tidak ada saksi langsung lain yang menguatkan peristiwa tersebut, apalagi di kawasan ramai seperti Pentagon. “Inilah mengapa sangat sulit (menurut saya secara efektif tidak mungkin) untuk membuat gambar palsu yang dapat dipercaya,” cuit Waters.
- Bahwa bangunan itu sendiri terlihat sangat berbeda dari Pentagon. Ini dapat dengan mudah diverifikasi dengan menggunakan alat seperti Google Street View untuk membandingkan dua gambar.
- Detail lainnya termasuk tiang lampu mengambang yang tampak aneh dan tiang hitam yang menonjol dari trotoar adalah petunjuk lain bahwa gambar itu tidak seperti yang terlihat. Kecerdasan buatan (AI) masih kesulitan membuat ulang lokasi tanpa memperkenalkan artefak acak.
Cara mengenali gambar buatan AI dan gambar palsu
Ada banyak alat AI generatif seperti Midjourney, Dall-e 2, dan Stable Diffusion yang dapat membuat gambar seperti aslinya dengan sedikit usaha.
Alat-alat ini dilatih dengan melihat gambar nyata dalam volume besar tetapi mengisi celah dengan interpretasi mereka sendiri ketika data pelatihan hilang. Hal ini dapat menyebabkan orang memiliki anggota tubuh ekstra dan objek yang berubah dengan lingkungannya.
Bottom of Form
Saat melihat gambar online yang konon menampilkan berita terbaru, ada baiknya mengingat hal-hal berikut:
- Berita tidak terjadi dalam ruang hampa – Dalam kasus ledakan besar atau peristiwa besar, Anda akan melihat masuknya laporan di lapangan dari orang yang berbeda dan sudut pandang yang berbeda.
- Siapa yang mengunggah konten – Lihat riwayat kiriman akun pengguna. Dimanakah lokasi mereka dan lokasi bertambah? Lihatlah siapa yang mereka ikuti dan siapa yang mengikuti mereka. Dapatkah Anda menjangkau mereka atau berbicara dengan mereka?
- Gunakan alat intelijen sumber terbuka – Alat pencarian gambar terbalik seperti Gambar Google dan TinEye memungkinkan Anda mengunggah gambar dan menentukan di mana dan kapan gambar itu pertama kali digunakan. Ada beberapa alat lain yang dapat Anda gunakan seperti melihat rekaman kamera lalu lintas publik langsung untuk memverifikasi bahwa suatu peristiwa sedang berlangsung.
- Menganalisis gambar dan sekelilingnya – Cari petunjuk pada gambar seperti tengara terdekat, rambu jalan, dan bahkan kondisi cuaca untuk membantu Anda mengetahui di mana atau kapan peristiwa yang diklaim dapat terjadi.
- Tangan, mata, dan postur tubuh – Saat berurusan dengan gambar manusia, berikan perhatian khusus pada mata, tangan, dan postur umum mereka. Video yang dibuat oleh AI yang meniru orang, yang dikenal sebagai deep fakes, cenderung mengalami masalah kedipan, karena sebagian besar kumpulan data pelatihan tidak berisi wajah dengan mata tertutup. Tangan yang tidak menggenggam benda dengan benar atau anggota tubuh yang terlihat bengkok secara tidak wajar juga dapat membantu mengenali yang palsu.
(zarahamala/arrahmah.id)