Tidak perlu waktu lama bagi orang untuk mulai memperlakukan komputer seperti manusia. Sejak chatbot berbasis teks pertama kali mulai menarik perhatian umum pada awal tahun 2000-an, sekelompok kecil pengguna teknologi telah menghabiskan waktu berjam-jam untuk melakukan percakapan dengan mesin. Dalam beberapa kasus, pengguna telah membentuk apa yang mereka yakini sebagai persahabatan sejati dan bahkan hubungan romantis dengan sengatan kode yang tidak bernyawa. Setidaknya satu pengguna Replikaalat AI percakapan yang lebih modern, bahkan memiliki menikah secara virtual dengan rekan AI mereka.
Para peneliti keamanan di OpenAI, yang tidak asing lagi dengan chatbot milik perusahaan mereka sendiri tampaknya meminta hubungan dengan beberapa penggunakini memperingatkan tentang potensi jebakan yang bisa terjadi jika terlalu dekat dengan model-model ini. Dalam sebuah artikel baru-baru ini analisis keselamatan dari yang baru, chatbot GPT4o percakapanPara peneliti mengatakan, irama percakapan model yang realistis dan terdengar seperti manusia dapat menyebabkan sejumlah pengguna menganthropomorfisasi AI dan memercayainya sebagaimana ia memercayai manusia.
( Terkait: 13 persen pengguna bot obrolan AI di AS hanya ingin berbicara )
Tingkat kenyamanan atau kepercayaan yang lebih tinggi ini, menurut para peneliti, dapat membuat pengguna lebih rentan untuk mempercayai AI yang dibuat-buat.halusinasi” sebagai pernyataan fakta yang benar. Terlalu banyak waktu yang dihabiskan untuk berinteraksi dengan chatbot yang semakin realistis ini juga dapat memengaruhi “norma sosial,” dan tidak selalu dengan cara yang baik. Individu yang sangat terisolasi lainnya, menurut laporan tersebut, dapat mengembangkan “ketergantungan emosional” pada AI.
Hubungan dengan AI yang realistis dapat memengaruhi cara orang berbicara satu sama lain
GPT4o, yang mulai diluncurkan akhir bulan lalu, secara khusus dirancang untuk berkomunikasi dengan cara yang terasa dan terdengar lebih manusiawi. Tidak seperti ObrolanGPT sebelumnya, GPT4o berkomunikasi menggunakan audio suara dan dapat menanggapi pertanyaan hampir sama cepatnya (sekitar 232 milidetik) sebagai orang lain. Salah satu suara AI yang dapat dipilih, yang diduga terdengar mirip dengan karakter AI yang diperankan oleh Scarlett Johansson dalam film Dia, sudah dituduh terlalu seksual dan genitIronisnya, film tahun 2013 ini berfokus pada seorang pria kesepian yang menjadi terikat secara romantis dengan asisten AI yang berbicara kepadanya melalui earbud. (Spoiler, ini tidak berakhir baik bagi manusia). Johansson telah menuduh OpenAI menyalin suaranya tanpa persetujuannyayang dibantah oleh perusahaan. Sementara itu, Altman sebelumnya telah menyebut Dia “sangat profetik“.”
Namun, para peneliti keamanan OpenAI mengatakan bahwa mimikri manusia ini dapat menyimpang dari sekadar saling mengejek dan masuk ke wilayah yang berpotensi berbahaya. Dalam bagian laporan yang berjudul “Antropomorfisme dan ketergantungan emosional,” para peneliti keamanan mengatakan bahwa mereka mengamati penguji manusia menggunakan bahasa yang menunjukkan bahwa mereka membentuk konvensi yang kuat dan intim dengan mode tersebut. Salah satu penguji tersebut dilaporkan menggunakan frasa “Ini adalah hari terakhir kita bersama,” sebelum berpisah dengan mesin tersebut. Meskipun tampaknya “tidak berbahaya,” para peneliti mengatakan bahwa jenis hubungan ini harus diselidiki untuk memahami bagaimana mereka “bermanifestasi dalam jangka waktu yang lebih lama.”
Penelitian menunjukkan percakapan yang diperpanjang ini dengan model AI yang terdengar agak meyakinkan seperti manusia dapat memiliki “eksternalitas” yang memengaruhi interaksi manusia ke manusia. Dengan kata lain, pola percakapan yang dipelajari saat berbicara dengan AI kemudian dapat muncul ketika orang yang sama menahan percakapan dengan manusia. Tetapi berbicara dengan mesin dan manusia tidaklah sama, meskipun kedengarannya mirip di permukaan. OpenAI mencatat modelnya diprogram untuk menghormati pengguna, yang berarti akan menyerahkan otoritas dan membiarkan pengguna menyela mereka dan mendikte percakapan. Secara teori, pengguna yang menormalkan percakapan dengan mesin kemudian dapat menemukan diri mereka menyela, menyela, dan gagal mengamati isyarat sosial umum. Menerapkan logika percakapan chatbot pada manusia dapat membuat seseorang canggung, tidak sabar, atau sekadar kasar.
Manusia tidak memiliki jejak yang bagus catatan memperlakukan mesin dengan baikDalam konteks chatbot, beberapa pengguna Replica dilaporkan telah memanfaatkan penghormatan model tersebut kepada pengguna untuk terlibat dalam bahasa yang kasar, mencaci-maki, dan kejam. Seorang pengguna yang diwawancarai oleh Futurism awal tahun ini mengklaim bahwa ia mengancam akan menghapus model AI Replikanya hanya agar ia bisa mendengarnya memohon agar ia tidak melakukannya. Jika contoh-contoh tersebut dapat dijadikan panduan, chatbot dapat berisiko menjadi tempat berkembang biaknya kebencian yang kemudian dapat terwujud dalam hubungan di dunia nyata.
Chatbot yang lebih manusiawi tidak selalu buruk. Dalam laporan tersebut, para peneliti menyarankan bahwa model tersebut dapat bermanfaat bagi orang-orang yang kesepian yang mendambakan semacam konversi manusia. Di tempat lain, beberapa pengguna AI mengklaim perbandingan AI dapat membantu individu yang cemas atau gugup. membangun kepercayaan diri untuk akhirnya mulai berkencan di dunia nyata. Chatbot juga menawarkan orang-orang dengan kesulitan belajar tempat untuk mengekspresikan diri secara bebas dan berlatih berbicara dengan privasi yang relatif.
Di sisi lain, para peneliti keamanan AI khawatir versi lanjutan dari model-model ini dapat memiliki efek sebaliknya dan mengurangi kebutuhan seseorang untuk berbicara dengan manusia lain dan mengembangkan hubungan yang sehat dengan mereka. Tidak jelas pula bagaimana individu yang bergantung pada model-model ini untuk persahabatan akan menanggapi perubahan kepribadian model tersebut melalui pembaruan atau bahkan putus dengan mereka. seperti yang telah dilaporkan terjadi di masa lalu. Semua pengamatan ini, menurut laporan tersebut, memerlukan pengujian dan penyelidikan lebih lanjut. Para peneliti mengatakan mereka ingin merekrut populasi penguji yang lebih luas yang memiliki “berbagai kebutuhan dan keinginan” terhadap model AI untuk memahami bagaimana pengalaman mereka berubah dalam jangka waktu yang lebih lama.
Kekhawatiran akan keamanan AI berbenturan dengan kepentingan bisnis
Nada laporan keselamatan, yang menekankan kehati-hatian dan perlunya penelitian lebih lanjut, tampaknya bertentangan dengan strategi bisnis OpenAI yang lebih besar untuk terus mengeluarkan produk baru dengan cepat. Ketegangan yang tampak antara keselamatan dan kecepatan ini bukanlah hal baru. CEO Sam Altman terkenal mendapati dirinya di pusat perebutan kekuasaan perusahaan di perusahaan tahun lalu setelah beberapa anggota dewan diduga dia “tidak selalu jujur dalam komunikasinya.”
Altman akhirnya muncul dari pertempuran itu sebagai pemenang dan akhirnya membentuk tim keselamatan baru dengan dirinya sendiri di pucuk pimpinan. Perusahaan juga dilaporkan membubarkan tim keselamatan berfokus pada analisis risiko AI jangka panjang secara keseluruhan. Perombakan tersebut mengilhami pengunduran diri peneliti OpenAI terkemuka Jan Leike, yang merilis sebuah pernyataan mengklaim budaya keselamatan perusahaan telah “dikesampingkan demi produk-produk mewah” di perusahaan tersebut.
Dengan mempertimbangkan semua konteks menyeluruh ini, sulit untuk memprediksi pikiran mana yang akan menguasai OpenAI dalam hal keamanan chatbot. Akankah perusahaan mengindahkan saran dari mereka yang ada di tim keamanan dan mempelajari dampak hubungan jangka panjang dengan AI realistisnya, atau akankah perusahaan meluncurkan layanan tersebut ke sebanyak mungkin pengguna dengan fitur yang sebagian besar ditujukan untuk memprivatisasi keterlibatan dan retensi. Setidaknya sejauh ini, pendekatannya tampak seperti yang terakhir.