OpenAI khawatir orang-orang mungkin menjadi bergantung secara emosional pada mode suara ChatGPT yang baru


Kota New York
Berita CNN

OpenAI khawatir bahwa orang-orang mungkin mulai terlalu bergantung pada ChatGPT untuk persahabatan, yang berpotensi menyebabkan “ketergantungan,” karena fitur barunya mode suara yang terdengar seperti manusia.

Pengungkapan itu datang pada laporan Kamis dari OpenAI tentang tinjauan keamanan yang dilakukan terhadap alat tersebut — yang mulai diluncurkan kepada pengguna berbayar minggu lalu — dan model AI bahasa besar yang menjalankannya.

Mode suara canggih ChatGPT terdengar sangat nyata. Mode ini merespons secara langsung, dapat menyesuaikan diri saat diganggu, mengeluarkan jenis suara yang biasa dikeluarkan manusia selama percakapan seperti tertawa atau “hmm.” Mode ini juga dapat menilai kondisi emosional pembicara berdasarkan nada suaranya.

Dalam beberapa menit OpenAI mengumumkan fitur tersebut pada suatu acara awal tahun ini, hal itu sedang terjadi dibandingkan dengan asisten digital AI dalam film “Her” yang dirilis pada tahun 2013, sang tokoh utama jatuh cinta, namun patah hati ketika AI mengakui bahwa “dia” juga memiliki hubungan dengan ratusan pengguna lainnya.

Kini, OpenAI tampaknya khawatir bahwa kisah fiksi tersebut hampir menjadi kenyataan, setelah ia mengatakan telah mengamati pengguna berbicara dengan mode suara ChatGPT dalam bahasa yang “mengungkapkan ikatan bersama” dengan alat tersebut.

Pada akhirnya, “pengguna mungkin membentuk hubungan sosial dengan AI, mengurangi kebutuhan mereka untuk berinteraksi dengan manusia — yang berpotensi menguntungkan individu yang kesepian tetapi mungkin memengaruhi hubungan yang sehat,” kata laporan tersebut. Ia menambahkan bahwa mendengar informasi dari bot yang terdengar seperti manusia dapat menyebabkan pengguna lebih memercayai alat tersebut daripada yang seharusnya, mengingat kecenderungan AI untuk melakukan kesalahan.

Laporan tersebut menggarisbawahi risiko besar yang berkaitan dengan kecerdasan buatan: perusahaan teknologi berlomba-lomba untuk segera meluncurkan alat AI kepada publik yang menurut mereka dapat mengubah cara kita hidup, bekerja, bersosialisasi, dan menemukan informasi. Namun, mereka melakukannya sebelum ada yang benar-benar memahami apa implikasinya. Seperti banyak kemajuan teknologi, perusahaan sering kali memiliki satu gagasan tentang bagaimana alat mereka dapat dan harus digunakan, tetapi pengguna menemukan banyak sekali aplikasi potensial lainnya, yang sering kali memiliki konsekuensi yang tidak diinginkan.

Beberapa orang sudah membentuk apa yang mereka gambarkan sebagai hubungan romantis dengan chatbot AI, yang memicu kekhawatiran dari para ahli hubungan.

“Perusahaan memiliki tanggung jawab besar untuk benar-benar menavigasi hal ini dengan cara yang etis dan bertanggung jawab, dan saat ini semuanya masih dalam tahap eksperimen,” kata Liesel Sharabi, seorang Profesor di Arizona State University yang mempelajari teknologi dan komunikasi manusia, kepada CNN dalam sebuah wawancara pada bulan Juni. “Saya khawatir tentang orang-orang yang menjalin hubungan yang sangat mendalam dengan teknologi yang mungkin tidak akan ada dalam jangka panjang dan terus berkembang.”

OpenAI mengatakan bahwa interaksi pengguna manusia dengan mode suara ChatGPT juga, seiring waktu, dapat memengaruhi apa yang dianggap normal dalam interaksi sosial.

“Model kami bersifat hormat, yang memperbolehkan pengguna untuk menyela dan 'mengambil mikrofon' kapan saja, yang meskipun diharapkan untuk AI, akan menjadi anti-normatif dalam interaksi manusia,” kata perusahaan itu dalam laporannya.

Untuk saat ini, OpenAI menyatakan berkomitmen membangun AI “dengan aman”, dan berencana terus mempelajari potensi “ketergantungan emosional” pengguna terhadap perangkatnya.

Sumber