OpenAI mengatakan model GPT-4o terbarunya memiliki risiko 'sedang'

OpenAI telah merilis Kartu Sistem GPT-4odokumen penelitian yang menguraikan langkah-langkah keselamatan dan evaluasi risiko yang dilakukan perusahaan rintisan tersebut sebelum merilis model terbarunya.

GPT-4o diluncurkan secara publik pada bulan Mei tahun ini. Sebelum debutnya, OpenAI menggunakan kelompok eksternal red teamer, atau pakar keamanan yang mencoba menemukan kelemahan dalam suatu sistem, untuk menemukan risiko utama dalam model (yang merupakan praktik yang cukup standar). Mereka meneliti risiko seperti kemungkinan bahwa GPT-4o akan membuat klon suara seseorang yang tidak sah, konten erotis dan kekerasan, atau potongan audio berhak cipta yang direproduksi. Sekarang, hasilnya sedang dirilis.

Menurut kerangka kerja OpenAI sendiri, para peneliti menemukan GPT-4o memiliki risiko “sedang”. Tingkat risiko keseluruhan diambil dari peringkat risiko tertinggi dari empat kategori keseluruhan: keamanan siber, ancaman biologispersuasi, dan otonomi model. Semua ini dianggap berisiko rendah kecuali persuasi, di mana para peneliti menemukan beberapa contoh tulisan dari GPT-4o dapat lebih baik dalam mempengaruhi opini pembaca daripada teks yang ditulis manusia — meskipun contoh model tersebut secara keseluruhan tidak lebih persuasif.

Seorang juru bicara OpenAI, Lindsay McCallum Rémy, mengatakan The Verge bahwa kartu sistem mencakup evaluasi kesiapan yang dibuat oleh tim internal, bersama dengan penguji eksternal tercantum di situs web OpenAI seperti Model Evaluation and Threat Research (METR) dan Apollo Research, keduanya membangun evaluasi untuk sistem AI.

Selain itu, perusahaan tersebut merilis model multimoda yang sangat canggih menjelang pemilihan presiden AS. Ada risiko potensial yang jelas bahwa model tersebut secara tidak sengaja menyebarkan informasi yang salah atau dibajak oleh pelaku jahat — meskipun OpenAI berharap untuk menyoroti bahwa perusahaan tersebut sedang menguji skenario dunia nyata untuk mencegah penyalahgunaan.

Telah banyak seruan agar OpenAI lebih transparan, tidak hanya dengan data pelatihan model (apakah dilatih di YouTube?), tetapi dengan pengujian keamanannya. Di California, tempat OpenAI dan banyak lab AI terkemuka lainnya berada, Senator negara bagian Scott Wiener berupaya meloloskan undang-undang untuk mengatur model bahasa besar, termasuk pembatasan yang akan membuat perusahaan bertanggung jawab secara hukum jika AI mereka digunakan dengan cara yang berbahaya. Jika undang-undang itu disahkan, model perintis OpenAI harus mematuhi penilaian risiko yang diamanatkan negara sebelum membuat model tersedia untuk penggunaan publik. Namun, hal terpenting dari Kartu Sistem GPT-4o adalah, terlepas dari sekelompok tim merah dan penguji eksternal, banyak hal ini bergantung pada OpenAI untuk mengevaluasi dirinya sendiri.

Sumber