Karyawan OpenAI juga menyuarakan keprihatinan bahwa para staf diminta untuk menandatangani perjanjian nondisclosure (NDA) yang terkait dengan saham mereka di perusahaan, yang berpotensi menyebabkan mereka kehilangan kesempatan untuk mendapatkan penawaran ekuitas jika berbicara menentang perusahaan rintisan AI tersebut.
Paxca mendapat penolakan, OpenAI mengatakan akan membebaskan mantan karyawan dari perjanjian tersebut.
Jacob Hilton, salah satu mantan karyawan OpenAI yang menandatangani surat tersebut pada hari Selasa, menulis di X bahwa perusahaan layak mendapatkan pujian atas perubahan kebijakan yang tidak mencemarkan nama baik tersebut, “tetapi karyawan mungkin masih takut akan bentuk pembalasan lain atas pengungkapan tersebut, seperti dipecat dan dituntut untuk ganti rugi.”
Dalam pernyataan yang dikirim ke Bloomberg, juru bicara OpenAI mengatakan bahwa perusahaan bangga dengan “rekam jejaknya dalam menyediakan sistem AI yang paling mumpuni dan paling aman serta percaya pada pendekatan ilmiah kami dalam menangani risiko.”
Juru bicara tersebut menambahkan: “Kami setuju bahwa perdebatan yang ketat sangat penting mengingat pentingnya teknologi ini dan kami akan terus terlibat dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia.”
Perwakilan Google tidak segera menanggapi permintaan komentar.
Masih dalam surat tersebut, yang berjudul Hak untuk Memperingatkan tentang Kecerdasan Buatan Tingkat Lanjut, para karyawan khawatir karena perusahaan-perusahaan AI terkemuka “memiliki insentif keuangan kuat untuk menghindari pengawasan yang efektif.”
Di sisi lain, perusahaan-perusahaan tersebut “hanya memiliki kewajiban relatif lemah” untuk membagikan bahaya yang sebenarnya dari sistem AI mereka kepada publik, kata mereka.
Surat itu berpendapat bahwa perlindungan pelapor biasa tidak cukup karena berfokus pada aktivitas ilegal, sedangkan banyak risiko yang dikhawatirkan karyawan, belum diatur.
Dalam serangkaian proposal, para karyawan meminta perusahaan AI berkomitmen melarang perjanjian non-diskriminasi untuk masalah terkait risiko dan menciptakan proses anonim dan dapat diverifikasi bagi karyawan untuk menyampaikan masalah kepada dewan direksi serta regulator.
Proposal juga menyerukan agar perusahaan menahan diri untuk tidak melakukan pembalasan terhadap karyawan saat ini dan mantan karyawan yang secara terbuka membagikan informasi tentang risiko setelah melalui proses internal lainnya.
OpenAI mengatakan bahwa mereka mengadakan sesi tanya jawab rutin dengan dewan direksi serta jam kerja bagi karyawan untuk menyuarakan keprihatinan mereka. Perusahaan ini juga mengatakan bahwa mereka memiliki “hotline integritas” anonim untuk karyawan dan kontraktor.
Daniel Kokotajlo, mantan karyawan OpenAI yang berhenti awal tahun ini, mengatakan bahwa ia khawatir tentang apakah perusahaan siap menghadapi implikasi dari artificial general intelligence (AGI), versi hipotetis dari AI yang dapat mengungguli manusia dalam banyak tugas. Kokotajlo mengatakan bahwa ia yakin ada peluang sebesar 50% untuk mencapai AGI pada tahun 2027.
“Tidak ada yang benar-benar menghentikan perusahaan untuk membangun AGI dan menggunakannya untuk berbagai hal, dan tidak banyak transparansi,” kata Kokotajlo, yang mengambil risiko melepaskan ekuitasnya untuk menghindari penandatanganan perjanjian tanpa kerahasiaan.
“Saya berhenti karena saya merasa kami belum siap. Kami belum siap sebagai perusahaan, dan kami belum siap sebagai masyarakat untuk hal ini, dan kami harus benar-benar berinvestasi lebih banyak lagi untuk mempersiapkan dan memikirkan implikasinya.”
(bbn)