Seorang peneliti keamanan telah mengungkap kerentanan yang mengkhawatirkan dalam M365 Copilot milik Microsoft yang memungkinkan pengguna mengakses file sensitif tanpa meninggalkan jejak apa pun dalam log audit. Masalah ini, yang ditemukan pada Juli 2024 dan diperbaiki secara diam-diam oleh Microsoft pada Agustus, telah memicu perdebatan sengit tentang transparansi korporat dan risiko kepatuhan.
Kerentanan ini ternyata sangat mudah dieksploitasi. Pengguna dapat meminta Copilot untuk merangkum file tanpa menyediakan tautan, yang akan melewati proses pencatatan audit normal sepenuhnya. Ini berarti seseorang dapat mengakses dokumen rahasia, catatan medis, atau data sensitif lainnya tanpa ada catatan yang muncul dalam log keamanan perusahaan.
Kronologi Kerentanan:
- 4 Juli 2024: Kerentanan ditemukan dan dilaporkan kepada Microsoft
- 7 Juli 2024: Microsoft mengubah status menjadi "mereproduksi"
- 10 Juli 2024: Fungsionalitas diubah sementara masih dalam status mereproduksi
- 2 Agustus 2024: Microsoft mengumumkan perbaikan akan dirilis 17 Agustus
- 17 Agustus 2024: Perbaikan lengkap diterapkan secara otomatis ke Copilot
- 18 Agustus 2024: Peneliti diizinkan untuk mengungkap secara publik
Kepatuhan Korporat Berisiko
Komunitas telah mengangkat kekhawatiran serius tentang implikasi kepatuhan dari bug ini. Organisasi yang tunduk pada regulasi HIPAA sangat bergantung pada log audit untuk melacak siapa yang mengakses data pasien dan kapan. Demikian pula, perusahaan yang menangani catatan keuangan atau rahasia dagang memerlukan jejak audit yang lengkap untuk tujuan hukum dan regulasi.
Perusahaan tidak akan menggunakan perangkat lunak open source karena masalah lisensi tetapi jika Anda mencucinya melalui LLM itu tidak masalah.
Arsitektur teknis di balik kerentanan ini tampaknya berasal dari cara Copilot mengakses informasi. Alih-alih membaca file secara langsung, sistem menggunakan konten yang telah diindeks sebelumnya dari sistem mirip mesin pencari. Ketika pengguna meminta ringkasan tanpa tautan, sistem audit gagal mencatat interaksi ini dengan benar.
Sistem yang Terdampak dan Kepatuhan:
- Pengguna M365 Copilot sebelum 18 Agustus 2024
- Organisasi yang tunduk pada persyaratan perlindungan teknis HIPAA
- Perusahaan yang mengandalkan log audit untuk kepatuhan hukum
- Entitas teregulasi apa pun yang memerlukan dokumentasi akses lengkap
Respons Diam-diam Microsoft
Yang paling membuat frustrasi komunitas keamanan adalah penanganan pengungkapan oleh Microsoft . Meskipun mengklasifikasikan masalah ini sebagai penting, perusahaan memutuskan untuk tidak mengeluarkan nomor CVE (Common Vulnerabilities and Exposures) atau memberi tahu pelanggan secara publik tentang masalah tersebut. Alasan mereka adalah karena perbaikan secara otomatis diterapkan ke Copilot , tidak diperlukan tindakan manual pelanggan.
Pendekatan ini telah menarik kritik dari para ahli keamanan yang berpendapat bahwa organisasi berhak mengetahui kapan log audit mereka mungkin tidak lengkap. Peneliti yang menemukan bug tersebut harus menavigasi proses pengungkapan yang membingungkan di mana pedoman Microsoft sendiri tidak diikuti, dan pembaruan status tampak terputus dari kenyataan.
Kontradiksi Kebijakan CVE Microsoft:
- Microsoft menyatakan CVE hanya diterbitkan ketika pelanggan perlu mengambil tindakan manual
- Dokumentasi kebijakan mereka sendiri menunjukkan CVE harus diterbitkan untuk kerentanan "penting"
- Perusahaan mengklasifikasikan kerentanan ini sebagai "penting" namun tetap menolak menerbitkan CVE
- Tidak ada notifikasi publik yang diberikan kepada pelanggan yang terdampak
Kekhawatiran Keamanan AI yang Lebih Luas
Insiden ini telah menyoroti kekhawatiran yang lebih luas tentang terburu-buru mengintegrasikan alat AI ke dalam lingkungan perusahaan. Banyak dalam komunitas teknologi memandang dorongan saat ini untuk mengintegrasikan AI di mana-mana sebagai prematur, terutama mengingat sifat nondeterministik dari model bahasa besar dan kurangnya kerangka keamanan yang tepat.
Kerentanan ini menimbulkan pertanyaan tentang bagaimana sistem AI harus menangani operasi dengan hak istimewa dan apakah model keamanan tradisional memadai untuk teknologi baru ini. Beberapa ahli menyarankan bahwa setiap interaksi AI dengan konten sensitif harus diisolasi melalui middleware yang dapat mengaudit semua upaya akses dengan benar.
Melihat ke Depan
Sementara Microsoft telah memperbaiki masalah spesifik ini, insiden tersebut berfungsi sebagai peringatan tentang tantangan keamanan integrasi AI. Organisasi yang menggunakan Copilot sebelum 18 Agustus 2024, mungkin perlu mengasumsikan bahwa log audit mereka dari periode tersebut berpotensi tidak lengkap.
Perdebatan berlanjut tentang apakah Microsoft seharusnya lebih transparan tentang perbaikan tersebut, terutama mengingat komitmen terbaru perusahaan untuk memprioritaskan keamanan setelah kritik dari badan keamanan siber. Untuk saat ini, insiden tersebut berdiri sebagai pengingat bahwa penerapan alat AI yang cepat dapat menciptakan celah keamanan yang tidak terduga yang mungkin tidak langsung terlihat oleh pengguna.
Referensi: Copilot Broke Your Audit Log, but Microsoft Won't Tell You