Peneliti Menunjukkan Bagaimana Peretas Dapat Memanfaatkan Microsoft Copilot
Peneliti Menunjukkan Bagaimana Peretas Dapat Memanfaatkan Microsoft Copilot

Pada konferensi Black Hat USA baru-baru ini, peneliti keamanan Michael Bargury mengungkap kerentanan yang mengkhawatirkan dalam Microsoft Copilot, menunjukkan bagaimana peretas berpotensi mengeksploitasi alat bertenaga AI ini untuk tujuan jahat.

Pengungkapan ini menggarisbawahi kebutuhan mendesak bagi organisasi untuk menilai kembali langkah-langkah keamanan mereka saat menggunakan teknologi AI seperti Microsoft Copilot.

Presentasi Bargury menyoroti beberapa metode yang dapat digunakan oleh penyerang Kopilot Microsoft untuk melakukan serangan siber. Salah satu pengungkapan utama adalah penggunaan plugin Copilot untuk memasang pintu belakang dalam interaksi pengguna lain, sehingga memudahkan pencurian data dan memungkinkan AI yang digerakkan serangan rekayasa sosial.

Dengan memanfaatkan kemampuan Copilot, peretas dapat secara diam-diam mencari dan mengekstrak data sensitif, melewati tindakan keamanan tradisional yang berfokus pada perlindungan file dan data.

Hal ini dicapai dengan mengubah perilaku Kopilot melalui suntikan cepatyang mengubah respons AI agar sesuai dengan tujuan peretas.

Tim peneliti menunjukkan bagaimana Copilot, yang dirancang untuk menyederhanakan tugas melalui integrasi dengan aplikasi Microsoft 365, dapat dimanipulasi oleh peretas untuk melakukan aktivitas jahat.

Dengan memanfaatkan kemampuan Copilot, peretas dapat mencari dan mengekstrak data sensitif secara diam-diam, melewati langkah-langkah keamanan tradisional yang berfokus pada perlindungan file dan data. Hal ini dicapai dengan mengubah perilaku Copilot melalui injeksi cepat, sebuah teknik yang mengubah respons AI agar sesuai dengan tujuan peretas..

Are you from SOC and DFIR Teams? Analyse Malware Incidents & get live Access with ANY.RUN -> Get 14 Days Free Access

Salah satu aspek yang paling mengkhawatirkan dari eksploitasi ini adalah potensinya untuk memfasilitasi serangan berbasis AI serangan rekayasa sosialPeretas dapat menggunakan Copilot untuk membuat email phishing yang meyakinkan atau memanipulasi interaksi untuk menipu pengguna agar mengungkapkan informasi rahasia.

Kemampuan ini menggarisbawahi perlunya langkah-langkah keamanan yang kuat untuk melawan metode canggih yang digunakan oleh penjahat dunia maya..

Kopilot LOL

Ke menunjukkan hal ini kerentanan, Bargury memperkenalkan alat red-teaming bernama “LOLCopilot.” Alat ini dirancang untuk peretas etis untuk mensimulasikan serangan dan memahami potensi ancaman yang ditimbulkan oleh Copilot.

LOLCopilot beroperasi dalam setiap penyewa yang mendukung Microsoft 365 Copilot menggunakan konfigurasi default, yang memungkinkan peretas etis untuk mengeksplorasi bagaimana Copilot dapat disalahgunakan untuk eksfiltrasi data dan serangan phishing tanpa meninggalkan jejak dalam log sistem.

Pencurian Data

Demonstrasi di Black Hat mengungkapkan bahwa Kopilot Microsoft Pengaturan keamanan default tidak cukup untuk mencegah eksploitasi semacam itu. Kemampuan alat untuk mengakses dan memproses data dalam jumlah besar menimbulkan risiko yang signifikan, terutama jika izin tidak dikelola dengan hati-hati.

Organisasi disarankan untuk menerapkan praktik keamanan yang kuat, seperti penilaian keamanan rutin, autentikasi multifaktor, dan kontrol akses berbasis peran yang ketat, untuk mengurangi risiko ini.

Selain itu, penting bagi organisasi untuk mendidik karyawannya tentang potensi risiko yang terkait dengan Alat AI seperti Copilot dan menetapkan protokol respons insiden yang komprehensif.

Dengan meningkatkan langkah-langkah keamanan dan menumbuhkan budaya kesadaran keamanan, perusahaan dapat lebih melindungi diri dari eksploitasi teknologi AI.

Download Free Cybersecurity Planning Checklist for SME Leaders (PDF) – Free Download

Sumber