AI Deepfake Gambar Perang Membanjiri: Bagaimana Misinformasi Konflik Iran Menyapu Media Sosial

ChainNewsAbmedia

Pada saat pecahnya perang Rusia-Ukraina tahun 2022, media sosial dipenuhi dengan gambar palsu berkualitas rendah — baik yang disusun menggunakan Photoshop, maupun yang diambil dari video game, film, atau berita lama yang diberi label salah. Kini, teknik yang sama kembali muncul dalam konflik Iran, tetapi kali ini dengan alat penipuan baru yang belum umum digunakan pada 2022: alat AI yang mudah digunakan siapa saja, mampu menghasilkan video dan gambar berkualitas tinggi yang sangat realistis.

Profesor forensik digital dari Universitas California, Berkeley, Hany Farid, mengatakan bahwa sepuluh tahun lalu, berita palsu serupa paling banyak satu atau dua, dan segera terungkap; sekarang, jumlahnya mencapai ratusan, dan tingkat realisme-nya sangat mencengangkan. “Bukan hanya tampak nyata, tetapi sedang berkembang — mempengaruhi orang secara mendalam. Orang percaya dan terus menyebarkannya.”

Penyebaran AI generatif menurunkan ambang batas pembuatan palsu secara drastis

Jurnalis senior BBC Verify, Shayan Sardarizadeh, yang telah lama mengikuti berita palsu di medan perang, menyatakan bahwa perubahan paling penting dalam satu tahun terakhir adalah menurunnya ambang untuk mengakses AI generatif. “Sekarang siapa saja bisa membuat video dan gambar yang sangat meyakinkan, tampak seperti kejadian besar di medan perang, dan sulit dibedakan dengan mata telanjang atau dari sudut pandang non-profesional.”

Kurang dari dua minggu sejak konflik Iran dimulai, Sardarizadeh dan para ahli lainnya telah mengonfirmasi bahwa banyak video palsu yang dibuat dengan AI telah mencapai puluhan juta penayangan di berbagai platform media sosial.

Apa saja gambar palsu yang beredar?

Konten palsu yang telah teridentifikasi meliputi berbagai hal, antara lain:

Gambar fiksi tentang rudal Iran yang menembaki Tel Aviv, Israel

Adegan panik warga yang melarikan diri dari bandara Tel Aviv saat diserang

Video pasukan khusus AS yang diinterogasi oleh tentara Iran dengan senjata

Rekaman “kamera pengawas” yang mengklaim menunjukkan fasilitas militer Iran yang dihancurkan (tiga di antaranya dibuat oleh AI, satu lagi adalah kejadian nyata tahun lalu)

Kendaraan lapis baja militer AS di Iran

Rangka pesawat militer AS yang jatuh dan diarak di jalanan Teheran

Dalam gambar statis, muncul gambar palsu tentang pangkalan militer AS dan kedutaan besar AS yang terbakar setelah diserang Iran, gambar kematian pemimpin tertinggi Iran, Khamenei, yang tertindih reruntuhan, serta adegan warga Iran yang berduka atas korban tewas. Bahkan media yang terkait dengan pemerintah Iran memposting gambar satelit palsu yang mengklaim menunjukkan kerusakan di pangkalan militer AS di Bahrain.

Ini hanyalah sebagian kecil dari berita palsu terkait Iran yang beredar saat ini.

Regulasi platform yang longgar, membuat berita palsu semakin sulit dikendalikan

Meskipun Sardarizadeh dan timnya terus-menerus mengungkap berita palsu setiap hari, konten palsu baru terus bermunculan dengan kecepatan jauh melebihi upaya klarifikasi, dan tingkat realisme-nya cukup tinggi sehingga pengguna biasa sulit membedakannya saat menggulir feed.

Sebagian besar berita palsu yang menyebar luas berasal dari akun yang pro-Iran dan memiliki tujuan propaganda. Tetapi motif di balik pembuatan berita palsu lainnya sulit dipastikan — mungkin untuk mendapatkan trafik, pengaruh, keuntungan, atau sekadar karena proses pembuatannya yang sangat mudah.

Farid menyoroti situasi saat ini: “Konten semakin nyata, jumlahnya semakin banyak, dan penetrasinya semakin dalam — ini adalah kenyataan kita saat ini, dan sangat membingungkan.”

Platform media sosial X minggu lalu mengumumkan bahwa jika pembuat konten berbayar memposting video medan perang tanpa menyebutkan sumber AI, mereka akan diskors selama 90 hari dari penghasilan, dan jika mengulangi, akan dihapus secara permanen. Namun, Farid meragukan efektivitas kebijakan ini, dan sebagian besar pengguna X tidak termasuk dalam program berbayar tersebut. TikTok dan Meta (pemilik Facebook dan Instagram) belum memberikan komentar kepada CNN.

Lebih membahayakan lagi, chatbot AI milik X, Grok, yang telah disebutkan berulang kali oleh Sardarizadeh, justru membantu menyebarkan berita palsu — memberi tahu pengguna bahwa banyak video AI yang dibuat adalah nyata.

Bagaimana cara menghindari tertipu berita palsu?

Farid mengakui bahwa bahkan teknik “mengidentifikasi gambar palsu AI” yang beredar beberapa bulan lalu saat ini hampir tidak efektif lagi. Dulu, pengguna bisa memperhatikan jumlah jari atau proporsi tubuh seseorang, tetapi AI saat ini sudah mampu memperbaiki kesalahan tersebut.

Pendekatan utama yang disarankan adalah aktif mencari informasi dari media berita yang terpercaya, bukan dari akun asing di media sosial. “Dalam masa konflik global, media sosial bukan tempat untuk mendapatkan informasi.”

Bagi pengguna yang harus sering mengakses media sosial, para ahli menyarankan:

Perlambat langkah: saat melihat gambar medan perang yang sensasional, luangkan beberapa detik untuk mencari verifikasi sebelum membagikan atau mempercayainya

Perhatikan detail: apakah suara dan gambar sinkron? apakah ciri khas gambar sesuai dengan lingkungan nyata? AI masih memiliki kekurangan, dan beberapa konten yang dihasilkan masih meninggalkan watermark

Periksa fakta dari sumber profesional: pastikan ada media fact-checking atau pakar yang telah mengomentari gambar tersebut

Perhatikan kolom komentar: pengguna biasa kadang bisa mengajukan pertanyaan yang efektif

Gunakan alat deteksi AI: meskipun tidak sempurna, tetap memiliki nilai referensi

Kekhawatiran meningkat, tantangan di masa depan semakin besar

Sardarizadeh mengimbau masyarakat untuk “melatih mata mereka sendiri” agar mampu mengenali jejak AI. Tetapi dia juga mengakui, “Deteksi konten AI semakin sulit, dan tren menunjukkan bahwa ke depannya akan semakin sulit lagi.”

Di tengah perkembangan teknologi AI generatif yang terus maju dan regulasi platform yang semakin longgar, medan perang berita palsu berkembang dengan kecepatan yang belum pernah terjadi sebelumnya, dan setiap pengguna ponsel berada di garis depan perang informasi ini.

Artikel ini tentang banjirnya gambar perang palsu yang dihasilkan AI: bagaimana berita palsu tentang konflik Iran menyebar di media sosial pertama kali dipublikasikan di ABMedia.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar