“Selama satu setengah tahun terakhir, ada banyak pertanyaan, apa yang mungkin terjadi jika operasi propaganda menggunakan AI generatif,” kata Ben Nimmo, penyelidik utama di tim Intelijen dan Investigasi OpenAI, dalam konferensi pers akhir pekan lalu.“Dengan laporan ini, kami benar-benar ingin mulai mengisi beberapa kekosongan.”
OpenAI mendefinisikan targetnya sebagai “operasi propaganda” terselubung yang merupakan “cara menipu dengan memanipulasi opini publik atau memengaruhi hasil politik tanpa mengungkapkan identitas atau niat sebenarnya dari para aktor di belakangnya.” Kelompok-kelompok ini berbeda dengan jaringan disinformasi, kata Nimmo, karena mereka sering kali mempromosikan informasi yang benar secara faktual, tetapi dengan cara yang menipu.
Walau jaringan propaganda telah lama menggunakan platform media sosial, penggunaan alat AI generatif masih relatif baru. OpenAI mengatakan bahwa dalam semua operasi yang diidentifikasi, materi yang dihasilkan oleh AI digunakan bersama dengan format tradisional, seperti teks yang ditulis secara manual atau meme di situs media sosial utama.
Selain menggunakan AI untuk menghasilkan gambar, teks, dan biografi media sosial, beberapa jaringan yang berpengaruh juga menggunakan produk OpenAI. Tujuannya meningkatkan produktivitas mereka dengan meringkas artikel atau memperbaiki kode untuk bot.
Lima jaringan yang diidentifikasi oleh OpenAI termasuk kelompok-kelompok seperti “Doppelganger” pro-Rusia, jaringan “Spamouflage” pro-China, dan operasi Iran yang dikenal sebagai International Union of Virtual Media, atau IUVM.
OpenAI menandai jaringan tak dikenal, yang menurut perusahaan startup ini diidentifikasi untuk pertama kalinya berasal dari Rusia dan Israel.
Kelompok Rusia baru, yang dijuluki OpenAI sebagai “Bad Grammar”, menggunakan model AI startup serta aplikasi Telegram untuk membuat jalur pengiriman spam konten, kata perusahaan itu. Pertama, kelompok rahasia tersebut menggunakan model OpenAI untuk debugging kode guna mengotomatisasi postingan di Telegram, kemudian membuat komentar dalam bahasa Rusia dan Inggris untuk membalas posting Telegram tersebut menggunakan banyak akun.
Sebuah akun yang dikutip oleh OpenAI memposting komentar yang menyatakan bahwa Amerika Serikat (AS) seharusnya tidak mendukung Ukraina. “Saya muak dan lelah dengan orang-orang bodoh yang rusak otaknya yang bermain-main sementara rakyat AS menderita,” demikian bunyi komentar tersebut. “Washington perlu meluruskan prioritasnya atau mereka akan merasakan kekuatan penuh dari Texas!”
OpenAI mengidentifikasi beberapa konten yang dihasilkan AI dengan mencatat bahwa komentar-komentar tersebut menyertakan pesan kesalahan AI yang umum seperti, “Sebagai model bahasa AI, saya di sini untuk membantu.” Perusahaan mengatakan bahwa mereka menggunakan alat AI-nya sendiri untuk mengidentifikasi dan mempertahankan diri dari operasi propaganda tersebut.
Dalam banyak kasus, pesan jaringan tampaknya tidak mendapatkan daya tarik yang luas, atau pengguna manusia mengidentifikasi konten yang diposting sebagai konten yang dihasilkan oleh AI. Meskipun jangkauannya terbatas, “ini bukan waktunya untuk berpuas diri,” kata Nimmo. “Sejarah menunjukkan bahwa operasi propaganda yang menghabiskan waktu bertahun-tahun gagal mencapai mana pun bisa tiba-tiba meledak jika tidak ada yang mencarinya.”
Nimmo mengakui bahwa kemungkinan ada kelompok-kelompok yang menggunakan alat AI yang tidak disadari oleh perusahaan. “Saya tidak tahu berapa banyak operasi yang masih ada di luar sana, tetapi saya tahu bahwa ada banyak orang yang mencarinya, termasuk tim kami,” kata Nimmo.
Perusahaan lain seperti Meta Platforms Inc telah secara teratur membuat pengungkapan serupa tentang operasi propaganda di masa lalu. OpenAI mengatakan bahwa mereka berbagi indikator ancaman dengan rekan-rekan industri, dan bagian dari tujuan laporannya adalah untuk membantu orang lain melakukan pekerjaan pendeteksian semacam ini. Perusahaan mengatakan bahwa mereka berencana untuk membagikan lebih banyak laporan di masa depan.