Lembaga pengawas Inggris menuduh Apple gagal melaporkan gambar seksual anak-anak | Apple

Apple gagal memantau platformnya secara efektif atau memindai gambar dan video pelecehan seksual terhadap anak-anak, menurut para ahli keselamatan anak, yang menimbulkan kekhawatiran tentang bagaimana perusahaan dapat menangani pertumbuhan volume materi semacam itu yang terkait dengan kecerdasan buatan.

Masyarakat Nasional Inggris untuk Pencegahan Kekejaman terhadap Anak-anak (NSPCC) menuduh Apple sangat meremehkan seberapa sering materi pelecehan seksual anak (CSAM) muncul dalam produknya. Dalam setahun, predator anak menggunakan iCloud, iMessage, dan Facetime Apple untuk menyimpan dan bertukar CSAM dalam jumlah kasus yang lebih tinggi di Inggris dan Wales saja daripada yang dilaporkan perusahaan di seluruh negara lain, menurut data polisi yang diperoleh NSPCC.

Melalui data yang dikumpulkan melalui permintaan kebebasan informasi dan dibagikan secara eksklusif dengan Guardian, badan amal anak-anak tersebut menemukan Apple terlibat dalam 337 pelanggaran gambar pelecehan anak yang tercatat antara April 2022 dan Maret 2023 di Inggris dan Wales. Pada tahun 2023, Apple hanya membuat 267 laporan dugaan CSAM pada platformnya di seluruh dunia ke National Center for Missing & Exploited Children (NCMEC), yang sangat kontras dengan rekan-rekan teknologi besarnya, dengan Google melaporkan lebih dari 1,47 juta dan Meta melaporkan lebih dari 30,6 juta, menurut NCMEC laporan Tahunan.

Semua perusahaan teknologi yang berbasis di AS wajib melaporkan semua kasus CSAM yang mereka deteksi di platform mereka ke NCMEC. Organisasi yang berkantor pusat di Virginia ini bertindak sebagai pusat informasi untuk laporan pelecehan anak dari seluruh dunia, melihatnya, dan mengirimkannya ke lembaga penegak hukum terkait. iMessage adalah layanan pesan terenkripsi, yang berarti Apple tidak dapat melihat isi pesan pengguna, tetapi begitu juga WhatsApp milik Meta, yang membuat sekitar 1,4 juta laporan dugaan CSAM ke NCMEC pada tahun 2023.

“Ada perbedaan yang mengkhawatirkan antara jumlah kejahatan gambar pelecehan anak di Inggris yang terjadi pada layanan Apple dan jumlah laporan global yang hampir dapat diabaikan tentang konten pelecehan yang mereka buat kepada pihak berwenang,” kata Richard Collard, kepala kebijakan daring keselamatan anak di NSPCC. “Apple jelas tertinggal dari banyak perusahaan sejenisnya dalam menangani pelecehan seksual anak padahal semua perusahaan teknologi seharusnya berinvestasi dalam keselamatan dan mempersiapkan peluncuran Undang-Undang Keamanan Daring di Inggris.”

Apple menolak memberikan komentar untuk artikel ini. Perusahaan tersebut malah mengarahkan Guardian ke pernyataan yang dibuatnya Agustus lalu, yang menyatakan bahwa Apple telah memutuskan untuk tidak melanjutkan program pemindaian foto iCloud untuk CSAM karena Apple memilih jalur yang “memprioritaskan keamanan dan privasi (penggunanya)”.

Pada akhir tahun 2022, Apple membatalkan rencana untuk meluncurkan alat pemindai foto iCloud. Alat Apple yang disebut neuralMatch akan memindai gambar sebelum diunggah ke penyimpanan foto daring iCloud, lalu membandingkannya dengan basis data gambar pelecehan anak yang diketahui melalui sidik jari matematis yang dikenal sebagai nilai hash.

Namun, perangkat lunak tersebut mendapat penolakan dari kelompok hak digital, yang menyuarakan kekhawatiran bahwa perangkat lunak tersebut pasti akan digunakan untuk membahayakan privasi dan keamanan semua pengguna iCloud. Para pendukung keselamatan anak mengecam pencabutan fitur tersebut.

“Apple sama sekali tidak mendeteksi CSAM di sebagian besar lingkungannya dalam skala besar,” kata Sarah Gardner, kepala eksekutif Heat Initiative, lembaga nirlaba di Los Angeles yang berfokus pada perlindungan anak. “Mereka jelas tidak melaporkan apa pun dan tidak berinvestasi dalam tim kepercayaan dan keamanan untuk dapat menangani hal ini.”

Apel Pengumuman bulan Juni Bahwa Apple akan meluncurkan sistem kecerdasan buatan, Apple Intelligence, telah menimbulkan kekhawatiran di kalangan pakar keselamatan anak.

“Perlombaan untuk meluncurkan Apple AI mengkhawatirkan karena materi pelecehan anak yang dihasilkan AI membahayakan anak-anak dan memengaruhi kemampuan polisi untuk melindungi korban muda, terutama karena Apple menunda penyematan teknologi untuk melindungi anak-anak,” kata Collard. Apple mengatakan sistem AI, yang dibuat melalui kemitraan dengan OpenAI, akan menyesuaikan pengalaman pengguna, mengotomatiskan tugas, dan meningkatkan privasi bagi pengguna.

Pada tahun 2023, NCMEC menerima lebih dari 4.700 laporan CSAM yang dihasilkan AI, dan mengatakan pihaknya memperkirakan jumlah laporan tersebut akan meningkat di masa mendatang. Karena model AI yang mampu membuat CSAM telah dilatih pada gambar “kehidupan nyata” tentang pelecehan anak, gambar yang dihasilkan AI juga terlibat dalam viktimisasi anak-anak. The Guardian melaporkan pada bulan Juni bahwa predator anak memanfaatkan AI untuk membuat gambar baru dari korban favorit mereka, yang selanjutnya memperburuk trauma korban atau citra pelecehan anak.

“Perusahaan ini bergerak maju ke wilayah yang kami tahu bisa sangat merugikan dan berbahaya bagi anak-anak tanpa rekam jejak kemampuan untuk menanganinya,” kata Gardner. “Apple adalah lubang hitam.”

Sumber