Gambar pelecehan seksual terhadap anak yang dihasilkan oleh AI sedang menyebar. Penegakan hukum berlomba untuk menghentikan mereka

WASHINGTON — Seorang psikiater anak yang mengubah foto hari pertama sekolah yang dilihatnya di Facebook untuk membuat sekelompok gadis tampak telanjang. Seorang tentara Angkatan Darat AS dituduh membuat gambar yang menggambarkan anak-anak yang ia kenal mengalami pelecehan seksual. Seorang insinyur perangkat lunak yang bertugas menghasilkan gambar anak-anak yang eksplisit secara seksual dan hiper-realistis.

Lembaga penegak hukum di seluruh AS mengambil tindakan keras terhadap a meresahkan penyebaran gambar pelecehan seksual terhadap anak-anak diciptakan melalui teknologi kecerdasan buatan — mulai dari manipulasi foto anak-anak sungguhan hingga penggambaran grafis anak-anak yang dihasilkan komputer. Pejabat Departemen Kehakiman mengatakan mereka secara agresif mengejar pelanggar yang mengeksploitasi alat AI negara bagian sedang berlomba untuk memastikan orang-orang yang membuat “deepfake” dan gambar-gambar berbahaya lainnya tentang anak-anak dapat dituntut berdasarkan hukum yang berlaku.

“Kita harus memberi isyarat sejak dini dan sering kali bahwa hal tersebut adalah sebuah kejahatan, bahwa hal tersebut akan diselidiki dan dituntut ketika bukti mendukungnya,” kata Steven Grocki, yang memimpin Bagian Eksploitasi dan Kecabulan Anak di Departemen Kehakiman, dalam sebuah wawancara dengan The Pers Terkait. “Dan jika Anda duduk di sana dan berpikir sebaliknya, pada dasarnya Anda salah. Dan hanya masalah waktu sebelum seseorang meminta pertanggungjawaban Anda.”

Departemen Kehakiman mengatakan undang-undang federal yang ada jelas berlaku untuk konten semacam itu, dan baru-baru ini mengajukan kasus federal pertama yang melibatkan gambar yang murni dihasilkan oleh AI – artinya anak-anak yang digambarkan tidak nyata melainkan virtual. Dalam kasus lain, otoritas federal pada bulan Agustus menangkap seorang tentara AS yang ditempatkan di Alaska dengan tuduhan memasang foto-foto polos anak-anak asli yang ia kenal melalui chatbot AI untuk menjadikan gambar tersebut eksplisit secara seksual.

Penuntutan ini dilakukan ketika para aktivis anak berupaya keras untuk mengekang penyalahgunaan teknologi guna mencegah membanjirnya gambar-gambar yang mengganggu, yang dikhawatirkan para pejabat akan mempersulit penyelamatan korban sebenarnya. Aparat penegak hukum khawatir para penyelidik akan membuang-buang waktu dan sumber daya untuk mencoba mengidentifikasi dan melacak anak-anak yang dieksploitasi, padahal sebenarnya tidak ada.

Sementara itu, para pembuat undang-undang sedang meloloskan serangkaian undang-undang untuk memastikan jaksa setempat dapat mengajukan tuntutan berdasarkan undang-undang negara bagian atas “deepfake” yang dihasilkan oleh AI dan gambar anak-anak yang eksplisit secara seksual lainnya. Para gubernur di lebih dari selusin negara bagian telah menandatangani undang-undang tahun ini yang menindak tegas gambar-gambar pelecehan seksual terhadap anak-anak yang dibuat atau diubah secara digital, menurut tinjauan yang dilakukan oleh The National Center for Missing. & Anak-anak yang Dieksploitasi.

“Kami berupaya mengejar ketertinggalan dalam penegakan hukum terhadap teknologi yang, sejujurnya, berkembang jauh lebih cepat dibandingkan saat ini,” kata Jaksa Wilayah Ventura County, Kalifornia, Erik Nasarenko.

Nasarenko mendorong undang-undang ditandatangani bulan lalu oleh Gubernur Gavin Newsom yang menjelaskan bahwa materi pelecehan seksual terhadap anak yang dihasilkan oleh AI adalah ilegal menurut hukum California. Nasarenko mengatakan kantornya tidak dapat menuntut delapan kasus yang melibatkan konten yang dibuat oleh AI antara Desember lalu dan pertengahan September karena undang-undang California mengharuskan jaksa untuk membuktikan bahwa gambar tersebut menggambarkan anak sungguhan.

Gambar pelecehan seksual terhadap anak yang dihasilkan oleh AI dapat digunakan untuk merawat anak-anak, kata pejabat penegak hukum. Bahkan jika mereka tidak mengalami kekerasan fisik, anak-anak bisa sangat terkena dampaknya ketika citra mereka diubah menjadi terlihat eksplisit secara seksual.

“Saya merasa seperti ada bagian dari diri saya yang diambil. Meskipun saya tidak dianiaya secara fisik,” kata Kaylin Hayman, 17 tahun, yang membintangi acara Disney Channel “Just Roll with It” dan membantu mendorong RUU California setelah dia menjadi korban gambar “deepfake”.

Hayman memberikan kesaksian tahun lalu di persidangan federal terhadap pria yang secara digital menempelkan wajahnya dan wajah aktor cilik lainnya ke tubuh yang melakukan tindakan seks. Dia dijatuhi hukuman lebih dari 14 tahun penjara pada bulan Mei.

Model AI sumber terbuka yang dapat diunduh pengguna ke komputer mereka diketahui disukai oleh pelaku, yang selanjutnya dapat melatih atau memodifikasi alat tersebut untuk menghasilkan gambaran eksplisit tentang anak-anak, kata para ahli. Para pelaku memberikan tip di komunitas web gelap tentang cara memanipulasi alat AI untuk membuat konten semacam itu, kata para pejabat.

Sebuah laporan tahun lalu oleh Stanford Internet Observatory menemukan bahwa kumpulan data penelitian yang menjadi sumber pembuat gambar AI terkemuka seperti Stable Diffusion berisi tautan ke gambar anak-anak yang eksplisit secara seksual, sehingga berkontribusi pada kemudahan beberapa alat dalam menghasilkan gambar berbahaya. Kumpulan data tersebut telah dihapus, dan para peneliti kemudian berkata mereka menghapus lebih dari 2.000 tautan web ke dugaan gambar pelecehan seksual terhadap anak-anak darinya.

Perusahaan teknologi terkemuka, termasuk Google, OpenAI, dan Stability AI, telah setuju untuk bekerja sama dengan organisasi anti pelecehan seksual terhadap anak, Thorn untuk memerangi penyebarannya gambar pelecehan seksual terhadap anak.

Namun para ahli mengatakan seharusnya lebih banyak upaya dilakukan sejak awal untuk mencegah penyalahgunaan sebelum teknologi ini tersedia secara luas. Dan langkah-langkah yang diambil perusahaan saat ini untuk mempersulit penyalahgunaan versi alat AI di masa depan “tidak akan banyak membantu mencegah” pelanggar menjalankan model versi lama di komputer mereka “tanpa terdeteksi”, kata jaksa Departemen Kehakiman dalam dokumen pengadilan baru-baru ini.

“Waktu tidak dihabiskan untuk membuat produk aman, bukan efisien, dan hal ini sangat sulit dilakukan setelah kejadian tersebut terjadi – seperti yang telah kita lihat,” kata David Thiel, kepala teknologi di Stanford Internet Observatory.

Pusat Nasional untuk Orang Hilang & CyberTipline Anak yang Dieksploitasi tahun lalu menerima sekitar 4.700 laporan konten yang melibatkan teknologi AI – sebagian kecil dari lebih dari 36 juta laporan dugaan eksploitasi seksual terhadap anak. Pada bulan Oktober tahun ini, kelompok tersebut menerima sekitar 450 laporan per bulan tentang konten yang melibatkan AI, kata Yiota Souras, kepala bagian hukum kelompok tersebut.

Namun, angka-angka tersebut mungkin masih terlalu kecil, karena gambar-gambar tersebut sangat realistis sehingga seringkali sulit untuk mengetahui apakah gambar-gambar tersebut dihasilkan oleh AI, kata para ahli.

“Penyelidik menghabiskan waktu berjam-jam hanya untuk mencoba menentukan apakah sebuah gambar benar-benar menggambarkan anak di bawah umur atau apakah itu buatan AI,” kata Rikole Kelly, wakil jaksa wilayah Ventura County, yang membantu menulis RUU California. “Dulu ada beberapa indikator yang sangat jelas… dengan kemajuan teknologi AI, hal tersebut tidak lagi terjadi.”

Para pejabat Departemen Kehakiman mengatakan mereka sudah mempunyai alat berdasarkan undang-undang federal untuk menangkap pelanggar karena gambar semacam itu.

Mahkamah Agung AS di 2002 membatalkan larangan federal tentang materi pelecehan seksual terhadap anak secara virtual. Namun undang-undang federal yang ditandatangani pada tahun berikutnya melarang produksi penggambaran visual, termasuk gambar, mengenai anak-anak yang terlibat dalam perilaku seksual eksplisit yang dianggap “cabul.” Undang-undang tersebut, yang menurut Departemen Kehakiman pernah digunakan di masa lalu untuk menuntut gambar kartun pelecehan seksual terhadap anak-anak, secara khusus menyatakan bahwa tidak ada persyaratan “bahwa anak di bawah umur yang digambarkan itu benar-benar ada.”

Departemen Kehakiman mengajukan tuntutan tersebut pada bulan Mei terhadap seorang insinyur perangkat lunak Wisconsin yang dituduh menggunakan alat AI Stable Diffusion untuk membuat gambar fotorealistik dari anak-anak yang terlibat dalam perilaku seksual eksplisit, dan ditangkap setelah dia mengirimkan beberapa gambar tersebut kepada seorang anak laki-laki berusia 15 tahun melalui pesan langsung. pesan di Instagram, kata pihak berwenang. Pengacara pria tersebut, yang berusaha untuk membatalkan dakwaan tersebut atas dasar Amandemen Pertama, menolak berkomentar lebih lanjut mengenai tuduhan tersebut melalui email ke AP.

Juru bicara Stability AI mengatakan pria tersebut dituduh menggunakan alat versi sebelumnya yang dirilis oleh perusahaan lain, Runway ML. Stability AI menyatakan bahwa mereka telah “berinvestasi pada fitur-fitur proaktif untuk mencegah penyalahgunaan AI untuk produksi konten berbahaya” sejak mengambil alih pengembangan eksklusif model tersebut. Juru bicara Runway ML tidak segera menanggapi permintaan komentar dari AP.

Dalam kasus-kasus yang melibatkan “deepfake,” yaitu foto seorang anak asli telah diubah secara digital agar menjadi eksplisit secara seksual, Departemen Kehakiman akan mengajukan tuntutan berdasarkan undang-undang federal “pornografi anak”. Dalam satu kasus, seorang psikiater anak di North Carolina yang menggunakan AI aplikasi untuk “menanggalkan pakaian” secara digital yang berpose pada hari pertama sekolah dalam foto berusia puluhan tahun yang dibagikan di Facebook dinyatakan bersalah atas tuntutan federal tahun lalu.

“Undang-undang ini ada. Mereka akan digunakan. Kami punya kemauan. Kami memiliki sumber dayanya,” kata Grocki. “Ini bukan prioritas rendah yang bisa kita abaikan karena sebenarnya tidak ada anak yang terlibat.”

Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here