Teknologi AI Dimanfaatkan untuk Sebar Hoaks Konflik Timur Tengah

Teknologi AI Dimanfaatkan untuk Sebar Hoaks Konflik Timur Tengah

Pesawat tempur jatuh di gurun pasir dikelilingi warga sipil dengan label verifikasi BBC menunjukkan konten palsu hasil manipulasi AI. [Foto: Ist]

Cekricek.id - Penyebaran informasi palsu menggunakan teknologi kecerdasan buatan mencapai tingkat mengkhawatirkan dalam konflik Israel-Iran yang sedang berlangsung. BBC mengidentifikasi ratusan konten manipulatif yang beredar luas di berbagai platform media sosial.

Investigasi mendalam yang dilakukan tim verifikasi BBC menemukan puluhan video dan gambar yang telah dimanipulasi menggunakan teknologi AI generatif. Konten-konten tersebut menampilkan adegan-adegan dramatis yang seolah-olah menggambarkan situasi terkini di kawasan konflik, padahal semuanya merupakan hasil rekayasa digital.

Dilansir BBC, salah satu temuan paling signifikan adalah video yang memperlihatkan pesawat tempur jatuh di area gurun yang dikelilingi puluhan warga sipil. Setelah dilakukan analisis mendalam, tim BBC Verify memastikan bahwa rekaman tersebut merupakan hasil manipulasi AI yang telah ditonton lebih dari 100 ribu kali di berbagai platform.

Akun-akun yang menyebarkan konten menyesatkan ini menerapkan strategi sistematis untuk meningkatkan jangkauan dan kredibilitas postingan mereka. Mereka tidak hanya membagikan ulang video-video palsu dari demonstrasi protes sebelumnya dan pertempuran di Iran, tetapi juga menciptakan narasi bahwa rekaman tersebut menunjukkan eskalasi terbaru dalam konfrontasi militer.

Israel mengumumkan serangan balasan terhadap Iran pada 13 Juni, yang mengakibatkan beberapa ratus serangan rudal dan pesawat nirawak Iran terhadap Israel.

Organisasi yang menganalisis sumber terbuka mengungkapkan bahwa volume disinformasi mencapai level yang dapat dikategorikan sebagai "mengganggu" dan berpotensi menutupi beberapa "detail keterlibatan" sebenarnya dalam upaya mengaburkan fakta dengan membanjiri platform dengan konten yang dirancang khusus untuk menarik perhatian.

"Kami mengamati berbagai hal, mulai dari rekaman yang tidak terkait dari Pakistan hingga video berulang dari serangan Oktober 2024 – beberapa di antaranya telah ditonton lebih dari 20 juta kali – serta klip permainan dan konten buatan AI yang ditandai sebagai kejadian nyata," ujar Geoconfirmed, grup verifikasi daring, di X.

Akun-akun tertentu telah menjadi "penyebar super" disinformasi, yang ditandai dengan peningkatan signifikan dalam jumlah pengikut mereka. Satu akun pro-Iran tanpa hubungan yang jelas dengan pihak berwenang di Teheran – Daily Iran Military – telah melihat pengikutnya di X bertambah dari lebih dari 700.000 pada 13 Juni menjadi 1,4 juta pada 19 Juni, peningkatan 85% dalam waktu kurang dari seminggu.

Ini adalah salah satu dari sekian banyak akun tak dikenal yang muncul di feed orang-orang baru-baru ini. Semuanya memiliki tanda centang biru, produktif dalam berbagi pesan, dan telah berlama-lama menggunggah disinformasi. Karena beberapa menggunakan nama yang tampaknya resmi, beberapa orang berasumsi bahwa itu adalah akun asli, tetapi tidak jelas siapa sebenarnya yang mengelola profil tersebut.

Banjir disinformasi menandai "pertama kalinya kami melihat AI generatif digunakan dalam skala besar selama konflik besar Eropa-Afrika Utara sejak konflik, kata Emmanuel Saibi, kepala investigasi pada kelompok analis Get Real, kepada BBC Verify.

Akun-akun yang ditujukan oleh BBC Verify sering membagikan gambar-gambar buatan AI yang tampaknya berusaha membesarkan keberhasilan respons Iran terhadap serangan Israel. Satu gambar, yang telah dilihat 27 juta kali, menggambarkan puluhan rudal jatuh di kota Tel Aviv.

Video lain yang dimasukkan untuk menunjukkan serangan rudal terhadap sebuah gedung di kota Israel pada larut malam. Ibu Saliba mengatakan klip tersebut sering menggambarkan serangan pada malam hari, sehingga sangat sulit untuk diverifikasi.

Kebohongan AI juga berfokus pada klaim penghancuran jet tempur F-35 Israel, pesawat canggih buatan AS yang mampu menyerang target darat dan udara. Jika rentak klip itu nyata, Iran akan menghancurkan 15% armada jet tempur Israel, kata Lisa Kaplan, CEO kelompok analis Alethea, kepada BBC Verify. Kami belum mengautentikasi rekaman F-35 yang ditembak jatuh.

Satu unggahan yang dibagikan secara luas mengklaim memperlihatkan sebuah jet rusak setelah ditembak jatuh di gurun Iran. Namun, tanda-tanda manipulasi AI terlihat jelas: warga sipil di sekitar jet bentuknya sama dengan kendaraan di dekatnya, dan pasti tidak menunjukkan tanda-tanda bentukan.

Video lain yang ditonton 21,1 juta kali di TikTok mengklaim memperlihatkan F-35 Israel ditembak jatuh oleh sistem pertahanan udara, tetapi rekaman tersebut sebenarnya berasal dari video game simulator penerbangan. TikTok menghapus rekaman tersebut setelah dihubungi oleh BBC Verify.

Ibu Kaplan mengatakan bahwa sebagai fokus pada F-35 didorong oleh jaringan akun yang sebelumnya dikaitkan Alethea dengan operasi pengaruh Rusia.

Ia mencatat bahwa operasi pengaruh Rusia baru-baru ini bergeser haluan dari upaya melakukan dukungan terhadap perang di Ukraina menjadi upaya menebal kekacauan tentang kemampuan persenjataan Barat – khususnya Amerika.

"Rusia tidak benar-benar memiliki respons terhadap F-35. Jadi apa yang dapat dilakukannya? Rusia dapat berupaya melemahkan dukungan terhadap F-35 di negara-negara tertentu," kata Kaplan.

Disinformasi juga disebarkan oleh akun-akun terkait yang sebelumnya mendemos perang Israel, Gaza dan konflik lainnya.

Motivasi mereka bermacam-macam, tetapi para ahli mengatakan beberapa di antaranya mungkin mencoba untuk mendapatkan uang dari konflik tersebut, dengan beberapa platform media sosial besar menawarkan pembayaran kepada akun yang memperoleh banyak penayangan.

Sebaliknya, postingan pro-Israel sebagai besar berfokus pada saran bahwa pemerintah Iran menghadapi peningkatan perbedaan pendapat seiring dengan berlanjutnya serangan.

Di antaranya adalah video buatan AI yang dibagikan secara luas yang secara keliru menggambarkan warga Iran menyatakan "kami cinta Israel" di jalan-jalan Teheran.

Namun, dalam beberapa hari terakhir – dan seiring dengan berkembangnya spekulasi tentang serangan AS terhadap situs nuklir Iran – beberapa akun mulai mengunggah gambar pesawat pengebom B-2 di atas Teheran yang dibuat dengan kecerdasan buatan.

B-2 telah menarik perhatian sejak serangan Israel terhadap Iran dimulai karena pesawat itu adalah satu-satunya pesawat yang mampu melakukan serangan secara efektif terhadap situs nuklir bawah tanah Iran.

Sumber resmi di Iran dan Israel telah membagikan beberapa gambar palsu. Media pemerintah di Teheran telah membagikan rekaman palsu serangan dan gambar jet F-35 yang jatuh yang dibuat oleh AI, sementara sebuah unggahan yang dibagikan oleh Pasukan Pertahanan Israel (IDF) meneriaki catatan komunitas di X karena menggunakan rekaman lama yang tidak terkait dari rentak rudal.

Banyak Disinformasi yang ditujukan oleh BBC Verify telah dibagikan di X, dan pengguna serang kali beralih ke chatbot AI platform tersebut, Grok, untuk memastikan kebenaran postingan.

Namun, dalam beberapa kasus, Grok bersikeras bahwa video AI itu nyata. Salah satu video tersebut memperlihatkan aliran truk yang membawa rudal balistik yang muncul dari kompleks lereng gunung. Tanda-tanda adanya konten AI termasuk batu-batu dalam video yang bergerak sendiri, kata Saliba.

Namun dalam menanggapi pengguna X, Grok berulang kali menegaskan bahwa video itu nyata dan mengutip laporan dari berbagai media termasuk Newsweek dan Reuters. "Periksa berita terpercaya untuk kejelasan," simpul chatbot itu dalam beberapa pesan.

X tidak menanggapi permintaan BBC Verify untuk mengomentari tindakan Chatbot.

Banyak video juga muncul di TikTok dan Instagram. Dalam pernyataan kepada BBC Verify, TikTok mengatakan bahwa mereka secara proaktif menegakkan pedoman komunitas "yang melarang konten yang tidak akurat, menyesatkan, atau palsu" dan bahwa mereka bekerja sama dengan pemeriksa fakta independen untuk "memverifikasi konten yang menyesatkan".

Pemilik Instagram Meta tidak menanggapi permintaan komentar.

Meskipun motivasi orang-orang yang membuat berita palsu daring beragam, banyak di antaranya yang dibagikan oleh pengguna media sosial biasa.

Baca juga: Panggilan ke Iran Dijawab Suara Robot, Keluarga Diaspora Panik

Matthew Facchini, seorang peneliti di Universitas Notre Dame, menyarankan bahwa disinformasi dapat menyebar lebih cepat secara daring ketika orang dihadapkan pada pilihan biner, seperti yang ditimbulkan oleh konflik dan politik.

"Hal itu mencerminkan masalah sosial dan psikologis yang lebih luas tentang orang-orang yang ingin membagikan ulang sesuatu jika hal itu sejalan dengan identitas politik mereka, dan juga secara umum, konten emosional yang lebih sensasional akan menyebar lebih cepat secara daring."

Baca Juga

Petugas keamanan dan puing-puing bangunan rusak akibat serangan di Haifa, Israel, menunjukkan dampak konflik Timur Tengah
Investor Waspadai Dampak Konflik Timur Tengah Terhadap Stabilitas Pasar Keuangan
Israel Bunuh Komandan Veteran Iran dalam Serangan Balasan
Israel Bunuh Komandan Veteran Iran dalam Serangan Balasan
Asap mengepul dari ledakan di wilayah Iran setelah serangan militer Israel
Israel Klaim Bunuh Dua Perwira Tinggi Garda Revolusi Iran
Jejak rudal melintasi langit malam di atas kota, terlihat cahaya ledakan di kejauhan selama serangan Iran-Israel
Iran dan Israel Kembali Saling Serang Setelah Tehran Batalkan Negosiasi Nuklir
Panggilan ke Iran Dijawab Suara Robot, Keluarga Diaspora Panik
Panggilan ke Iran Dijawab Suara Robot, Keluarga Diaspora Panik
Teheran Tutup Pintu Negosiasi Nuklir
Teheran Tutup Pintu Negosiasi Nuklir