OpenAI yang baru-baru ini diumumkan mengatakan bahwa mereka akan terus mengevaluasi sistem AI-nya untuk mengetahui bagaimana sistem tersebut bekerja pada empat kategori berbeda — termasuk soal masalah keamanan siber serta ancaman kimia, nuklir, dan biologi— dan bekerja untuk mengurangi bahaya yang mungkin ditimbulkan.
Perusahaan juga memonitor risiko “bencana”, yang didefinisikan dalam pedoman sebagai “risiko apa pun yang dapat mengakibatkan kerusakan ekonomi senilai ratusan miliar dolar atau menyebabkan cedera parah atau kematian banyak orang.”
Aleksander Madry, yang memimpin tim khusus yang dibentuk OpenAI dan sedang cuti dari jabatan pengajar di Massachusetts Institute of Technology, mengatakan kepada Bloomberg News bahwa mereka akan mengirimkan laporan bulanan kepada kelompok penasihat keselamatan internal.
Kelompok ini selanjutnya akan menganalisa hasil kerja tim Madry dan mengirimkan rekomendasi kepada Altman dan dewan direksi perusahaan baru usai drama penggulingan Altman usai.
Altman dan tim kepemimpinannya dapat membuat keputusan tentang apakah akan merilis sistem AI baru berdasarkan laporan ini, tetapi dewan memiliki hak untuk membalikkan keputusan itu, menurut dokumen tersebut.
OpenAI mengumumkan pembentukan tim “kesiapsiagaan” pada bulan Oktober, menjadikannya salah satu dari tiga kelompok terpisah yang mengawasi keamanan AI di perusahaan startup. Ada juga “sistem keamanan,” yang mengamati GPT-4, dan “superalignment,” — produk dengan berfokus pada sistem AI sangat kuat, dan hipotetis, yang mungkin ada di masa depan.
Madry bilang bahwa timnya akan berulang kali mengevaluasi model AI milik OpenAI yang paling canggih dan belum dirilis, memberi peringkat “rendah”, “sedang”, “tinggi”, atau “kritis” untuk berbagai jenis risiko yang dirasakan.
Tim akan membuat perubahan dengan harapan dapat mengurangi potensi bahaya yang mereka temukan dalam AI. Tim juga akan mengukur efektivitasnya. OpenAI hanya akan meluncurkan model yang memiliki peringkat “sedang” atau “rendah”, sesuai dengan pedoman baru.
“AI bukanlah sesuatu yang terjadi begitu saja pada kita yang mungkin baik atau buruk. Ini adalah sesuatu yang sedang kami bentuk,” kata Madry.
Ia berharap perusahaan lain akan menggunakan pedoman seperti OpenAI untuk mengevaluasi potensi risiko dari model AI mereka. Panduan tersebut merupakan formalisasi dari banyak proses yang telah dilakukan OpenAI sebelumnya ketika mengevaluasi teknologi AI yang telah dirilisnya.
Tim selanjutnya akan menyusun rinciannya selama beberapa bulan terakhir, katanya, dan mendapatkan umpan balik dari pihak lain di OpenAI.
(bbn)