OpenAI mengatakan 'suara' GPT-4o dapat membuat pengguna terikat secara emosional

Sebagai OpenAI meluncurkan versi lanjutan dari mode suara untuk itu model terbaru, GPT-4operusahaan tersebut mengatakan fitur tersebut dapat meningkatkan risiko beberapa pengguna melihat model kecerdasan buatan sebagai “seperti manusia.”

Suara GPT-4o yang “mirip manusia dan berfidelitas tinggi” dapat menjadi masalah halusinasiatau kecenderungan model untuk membuat informasi palsu atau tidak masuk akal, lebih buruk lagi, kata OpenAI dalam sebuah pernyataan laporan tentang keamanan model AIyang dapat memengaruhi kepercayaan manusia.

Selama pengujian awal tim merah dan pengujian pengguna internal, OpenAI mengatakan bahwa mereka mengamati pengguna berbicara kepada model dengan “bahasa yang mungkin menunjukkan terbentuknya koneksi dengan model,” seperti seorang pengguna yang memberi tahu model: “Ini adalah hari terakhir kita bersama.”

“Meskipun kejadian ini tampak tidak berbahaya, hal ini menandakan perlunya penyelidikan lanjutan mengenai bagaimana efek ini dapat terwujud dalam jangka waktu yang lebih lama,” kata OpenAI, seraya menambahkan bahwa pihaknya terus meneliti risiko dengan pengguna yang lebih beragam, serta studi akademis dan internal.

Meskipun membentuk “hubungan sosial” dengan model AI dapat membantu orang yang kesepian, model ini juga dapat memengaruhi hubungan yang sehat dengan mengurangi kebutuhan interaksi antarmanusia, kata OpenAI. Bergantung pada model AI untuk interaksi “seperti manusia” juga dapat “mempengaruhi norma sosial,” kata perusahaan itu, seperti menyela percakapan kapan saja, yang memungkinkan pengguna melakukannya, tetapi tidak lazim dalam percakapan dengan orang sungguhan.

Kemampuan suara GPT-4o, yang memulai debutnya pada bulan Mei, diuji dengan lebih dari 100 tim merah eksternal dalam 45 bahasadan model AI dilatih untuk hanya berbicara dalam empat suara yang telah ditetapkan sebelumnya untuk melindungi privasi pengisi suara. GPT-4o dibuat untuk memblokir keluaran yang menggunakan suara yang tidak ditetapkan sebelumnya, dan karenanya tidak dapat digunakan untuk meniru individu dan tokoh masyarakat. OpenAI juga menambahkan pembatas untuk memblokir permintaan audio berhak cipta, termasuk musik, dan konten erotis, kekerasan, dan berbahaya.

OpenAI mengatasi risiko yang menjadi fokus kepala eksekutif Film favorit Sam AltmanBahasa Indonesia: Diayang menggambarkan seorang pria yang mengembangkan perasaan terhadap asisten virtual yang disuarakan oleh aktris Scarlett Johansson. Pada bulan Mei, pengguna mengatakan salah satu suara GPT-4o, Sky, terdengar mirip dengan suara Johansson, yang menyebabkan perusahaan tersebut jeda suaramengatakan bahwa hal itu tidak dimaksudkan untuk meniru aktris tersebut. Johansson mengatakan dalam sebuah surat dia “terkejut, marah, dan tidak percaya” bahwa perusahaan akan menggunakan suara yang terdengar “sangat mirip” dengannya setelah dia menolak bekerja sama dengan Altman.

Sumber