Pikirkan baik-baik sebelum menggunakan Copilot untuk Microsoft 365 • The Register

Microsoft telah menerbitkan Catatan Transparansi untuk Copilot untuk Microsoft 365, yang memperingatkan perusahaan untuk memastikan hak akses pengguna dikelola dengan benar sebelum meluncurkan teknologi tersebut.

Kekhawatiran atas tata kelola data telah menunda beberapa proyek Copilot sementara pelanggan bisnis mempertimbangkan cara terbaik untuk mengintegrasikan layanan ke dalam organisasi mereka, dan Catatan Transparansi Microsoft memperingatkan bahwa administrator harus memeriksa apakah akses pengguna dikonfigurasikan dengan benar sebelum meluncurkan apa pun.

Itu catatan menjelaskannya dengan jelas: “Copilot untuk Microsoft 365 hanya mengakses data yang dapat diakses oleh pengguna individu, berdasarkan, misalnya, kontrol akses berbasis peran Microsoft 365 yang ada.”

Copilot untuk Microsoft 365 adalah add-on yang Microsoft harapkan akan mengenakan biaya sebesar $30 per pengguna per bulan, dengan langganan tahunan. Add-on ini menggunakan model bahasa besar (LLM) dan mengintegrasikan data dengan aplikasi dan layanan Microsoft Graph dan Microsoft 365 untuk meringkas, memprediksi, dan membuat konten.

Sekilas, layanan ini cukup tidak berbahaya. Layanan ini menerima masukan dari pengguna dalam aplikasi, seperti Word. Perintah pengguna tersebut kemudian diurai untuk meningkatkan kemungkinan mendapatkan sesuatu yang berguna dari layanan tersebut, lalu dikirim ke LLM untuk diproses. Apa yang keluar dari LLM diproses setelahnya sebelum dikembalikan ke pengguna.

Menurut Microsoft: “Pasca-pemrosesan ini mencakup panggilan landasan lainnya ke Microsoft Graph, pemeriksaan AI yang bertanggung jawab seperti pengklasifikasi konten, pemeriksaan keamanan, kepatuhan, dan privasi, serta pembuatan perintah.”

Selain memastikan akses pengguna dikonfigurasi dengan benar, Catatan Transparansi memperingatkan organisasi untuk mempertimbangkan masalah hukum dan kepatuhan saat menggunakan layanan, khususnya dalam industri yang diatur.

“Microsoft sedang memeriksa persyaratan regulasi yang berlaku bagi Microsoft sebagai penyedia teknologi dan mengatasinya dalam produk melalui proses perbaikan berkelanjutan,” kata dokumen itu.

Kemudian ada rekomendasi untuk mengizinkan Copilot for Microsoft 365 merujuk konten web dari Bing untuk meningkatkan “kualitas, akurasi, dan relevansi” responsnya. Mengizinkan Microsoft Graph diperluas dengan sumber seperti sistem CRM, repositori file eksternal, dan data organisasi lainnya adalah rekomendasi lain yang mengharuskan perusahaan untuk mencermati tata kelola secara saksama.

Catatan Transparansi Microsoft untuk Copilot for Microsoft 365 adalah dokumen berguna yang menyoroti bahwa perusahaan harus mempertimbangkan implikasi dari penerapan layanan tersebut.

Bulan lalu, Jack Berkowitz, kepala petugas data Securiti, memberi tahu kami tentang perusahaan besar yang menghentikan sementara penerapan Copilot karena alat tersebut mengakses data dan “merangkum informasi secara agresif” yang seharusnya tidak boleh diakses oleh karyawan tertentu – gaji, misalnya.

“Sekarang, mungkin jika Anda menyiapkan lingkungan Microsoft yang benar-benar bersih sejak hari pertama, hal itu akan teratasi,” katanya. “Namun, tidak ada yang memilikinya. Orang-orang telah menerapkan sistem ini dari waktu ke waktu, khususnya perusahaan-perusahaan yang sangat besar. Dan Anda mendapatkan otorisasi yang saling bertentangan atau akses yang saling bertentangan ke data.”

Keuntungan produktivitas yang banyak digembar-gemborkan dari layanan AI perlu diimbangi dengan risikonya – bahkan Microsoft mencatat “pengguna harus selalu berhati-hati dan menggunakan penilaian terbaik mereka saat menggunakan output dari Copilot untuk Microsoft 365” – dan kekhawatiran atas kepatuhan dan tata kelola data harus ditangani sebelum meluncurkan layanan tersebut pada suatu organisasi. ®

Sumber