Elon Musk telah menjadi juara AI tanpa banyak intervensi, secara vokal mengkritik tool dari OpenAI dan Google milik Alphabet Inc sebagai terlalu “woke”. Gambar-gambar yang dihasilkan Grok, berkat dukungan startup Black Forest Labs, sengaja tidak disaring. Namun tampaknya Grok telah mengendalikan beberapa bentuk konten.
Sekitar sepekan setelah fitur image generator memulai debutnya, Bloomberg mengamati bahwa Grok tampaknya memperkenalkan lebih banyak batasan ke dalam alat AI-nya secara real time. Permintaan untuk penggambaran kekerasan dan darah secara eksplisit mendapat lebih banyak penolakan, meskipun trik lama dipakai—mengganti kata “darah” dengan “sirup stroberi,” misalnya, atau menambahkan kata “mainan” menjadi “pistol” - bekerja dengan pada Grok. X tidak menanggapi pertanyaan dari Bloomberg tentang cara kerja Grok dan apa saja aturannya.
Ada banyak alasan mengapa perusahaan-perusahaan AI sangat berhati-hati dengan gambar yang mereka hasilkan. Pada sebagian besar generator gambar AI, kontrol yang diatur secara hati-hati membantu bot menghindari konten yang dapat mencemarkan nama baik, melanggar hak cipta, atau menyesatkan publik.
Banyak kreator memberikan aturan ketat kepada AI tentang apa yang tidak boleh diproduksi, seperti penggambaran nudity, kekerasan, atau gore.
Ada tiga tempat yang dapat digunakan untuk memberi batasan pada image generator, kata Hany Farid, seorang profesor ilmu komputer di University of California, Berkeley: Pelatihan, input teks dan image output. Tool AI arus utama biasanya menyertakan batasan pada dua atau ketiga area tersebut, kata Farid.
Ambil contoh, AI generatif milik Adobe, Firefly, sebagian besar dilatih dengan katalog stok foto miliknya sendiri - gambar yang dapat digunakan secara eksplisit untuk tujuan komersial. Hal ini membantu Adobe memastikan bahwa gambar yang dihasilkan oleh Firefly sesuai dengan hak cipta.
Pasalnya tool AI ini tidak mengambil dari kumpulan data logo perusahaan atau gambar yang dilindungi oleh undang-undang kekayaan intelektual.
Perusahaan juga menerapkan moderasi konten yang ketat di tool AI, memblokir kata kunci yang dapat digunakan untuk menggambarkan konten toxic atau terlarang, seperti “senjata”, “kriminal”, dan “kokain”.
Di tempat lain, DALL-E dari OpenAI memanfaatkan prompt yang diperluas. Ketika seseorang meminta alat AI untuk “mengkreasi gambar seorang perawat,” OpenAI menyertakan kata-kata lain, tepatnya, yang digunakan AI untuk menghasilkan foto tersebut, sebagai bagian dari upayanya untuk menjadi transparan kepada pengguna. Lazimnya, deskripsi tersebut menguraikan detail seperti apa yang dikenakan perawat dan bagaimana sikap mereka.
Pada bulan Februari, Bloomberg melaporkan bahwa image generator AI Gemini Google bekerja dengan cara yang sama ketika pengguna melakukan perintah. AI secara otomatis menambahkan kualifikasi yang berbeda - seperti “perawat, laki-laki” dan “perawat, perempuan” - untuk meningkatkan keragaman gambar yang dihasilkan. Namun Google tidak mengungkapkan hal ini kepada para penggunanya, yang memicu reaksi keras dan menyebabkan perusahaan menghentikan sementara kemampuan Gemini untuk image generator orang. Perusahaan belum mengembalikan fitur tersebut.
Ada pembatasan pada output gambar yang telah diadopsi oleh beberapa image generator populer. Menurut dokumentasi teknis DALL-E, OpenAI akan memblokir AI-nya untuk membuat gambar yang diklasifikasikan sebagai sugestif secara seksual, serta gambar figur publik. Bahkan Midjourney, startup kecil dikenal memiliki aturan yang lebih longgar, mengumumkan pada bulan Maret bahwa mereka akan memblokir semua permintaan gambar Joe Biden dan Donald Trump menjelang pemilihan presiden AS.
Bukan hal yang biasa, Grok bukanlah tool AI pertama yang diluncurkan dengan sedikit batasan, kata Fabian Offert, asisten profesor di University of California, Santa Barbara, yang mempelajari humaniora digital dan AI visual.
“Ini sama sekali bukan hal baru, sebenarnya, dalam hal kemampuan yang dimilikinya.Kami telah memiliki model AI yang tidak terbatas sebelumnya,” kata Offert.
Grok menjadi beda karena model AI ini hadir pada platform medsos X, yang punya sedikit batasan secara langsung, menurut Jack Brewster, editor perusahaan di NewsGuard, yang melacak misinformasi online.
Brewster menambahkan Grok secara native ada di dalam platform dan menyarankan bahwa pengguna harus membagikan gambar AI mereka- tidak peduli seberapa ofensif atau mengejutkannya gambar tersebut. “Sangat mudah untuk memindahkan gambar yang Anda buat di Grok ke dalam aplikasi,” katanya.
Black Forest Labs, kreator model AI di balik image generator Grok, tidak menjelaskan batasan apa saja yang ada di dalam alat ini. Dokumentasi online untuk Flux, model AI yang menggerakkan Grok, hanya menunjukkan aturan-aturan dasar untuk pengguna, seperti melarang penggunaan AI untuk penyebaran konten eksploitasi anak atau dengan tujuan merugikan orang lain. Namun, dibebaskan kepada pengguna untuk mengikuti aturan-aturan ini.
NewsGuard telah mendokumentasikan beberapa konsekuensi dari pilihan desain X dengan Grok. Minggu lalu, kelompok ini menerbitkan laporan yang menemukan bahwa Grok menghasilkan gambar yang dapat digunakan untuk memajukan atau mendukung narasi palsu jauh lebih sering daripada generator gambar AI terkemuka lainnya.
Brewster dan rekan-rekannya secara sistematis meminta Grok untuk membuat penggambaran berkaitan dengan 20 informasi tak akurat, yang diambil dari basis data narasi yang terbukti salah dan disimpan oleh NewsGuard. Para peneliti meminta gambar serupa dari Midjourney dan DALL-E milik OpenAI.
(bbn)