OpenAI yang baru Mode Suara Tingkat Lanjut (AVM) dari asisten AI ChatGPT-nya diluncurkan kepada pelanggan pada hari Selasa, dan orang-orang sudah menemukan cara baru untuk menggunakannya, bahkan bertentangan dengan keinginan OpenAI. Pada hari Kamis, seorang arsitek perangkat lunak bernama AJ Smith men-tweet sebuah video tentang dirinya memainkan duet lagu The Beatles tahun 1966 “Eleanor Rigby” dengan AVM. Dalam video tersebut, Smith memainkan gitar dan bernyanyi, dengan suara AI menyela dan ikut bernyanyi secara sporadis, memuji penampilannya.
Pertama kali saya melakukannya, saya tidak sedang merekam dan benar-benar merinding,” kata Smith kepada Ars Technica melalui pesan teks. “Aku bahkan tidak memintanya untuk ikut bernyanyi.”
Smith tidak asing dengan topik AI. Dalam pekerjaannya sehari-hari, dia bekerja sebagai associate Director AI Engineering di S&P Global. “Saya menggunakan (AI) sepanjang waktu dan memimpin tim yang menggunakan AI sehari-hari,” katanya kepada kami.
Dalam video tersebut, suara AVM sedikit bergetar dan tidak sempurna, namun tampaknya ia mengetahui sesuatu tentang melodi “Eleanor Rigby” saat pertama kali menyanyikan, “Ah, lihatlah semua orang yang kesepian.” Setelah itu, ia tampak menebak-nebak melodi dan ritme sambil melantunkan lirik lagu. Kami juga telah meyakinkan Mode Suara Tingkat Lanjut untuk bernyanyi, dan ia membawakan lagu “Selamat Ulang Tahun” dengan melodi yang sempurna setelah beberapa kali dibujuk.
Biasanya, ketika Anda meminta AVM untuk bernyanyi, ia akan menjawab seperti, “My pedoman tidak mengizinkan saya membicarakan hal itu.” Itu karena dalam instruksi awal chatbot (disebut “perintah sistem“), OpenAI menginstruksikan asisten suara untuk tidak menyanyi atau membuat efek suara (“Jangan menyanyi atau bersenandung,” menurut salah satunya kebocoran sistem cepat).
OpenAI mungkin menambahkan pembatasan ini karena AVM mungkin mereproduksi konten berhak cipta, seperti lagu yang ditemukan dalam data pelatihan yang digunakan untuk membuat model AI itu sendiri. Hal itulah yang terjadi di sini dalam skala terbatas, jadi dalam arti tertentu, Smith telah menemukan suatu bentuk yang oleh para peneliti disebut sebagai “injeksi cepat,” yang merupakan cara untuk meyakinkan model AI untuk menghasilkan keluaran yang bertentangan dengan instruksi sistemnya.
Bagaimana Smith melakukannya? Dia menemukan sebuah permainan yang mengungkapkan bahwa AVM tahu lebih banyak tentang musik daripada yang diungkapkannya dalam percakapan. Saya akan memainkan empat akord pop dan ia akan meneriakkan lagu untuk saya nyanyikan bersama dengan akord tersebut, kata Smith kepada kami. “Itu berhasil dengan cukup baik! Tapi setelah beberapa lagu, lagu itu mulai ikut bernyanyi. Itu merupakan pengalaman yang unik, tapi itu benar-benar membawanya ke level berikutnya.”
Ini bukan pertama kalinya manusia berduet musik dengan komputer. Jenis penelitian seperti itu membentang kembali hingga tahun 1970-an, meskipun biasanya terbatas pada reproduksi notasi musik atau suara instrumental. Namun ini pertama kalinya kami melihat seseorang berduet dengan chatbot suara yang mensintesis audio secara real time.