Sebuah kerentanan keamanan terbaru yang memungkinkan pengguna mengelabui ChatGPT untuk mengungkap kunci produk Windows telah diperbaiki oleh OpenAI, namun insiden ini telah memicu diskusi yang lebih luas tentang teknik jailbreaking AI dan implikasinya terhadap keamanan sistem.
Kerentanan ini ditemukan oleh seorang peneliti yang menggunakan format permainan tebak-tebakan sederhana untuk melewati pagar pengaman ChatGPT. Dengan meminta AI untuk memikirkan nomor seri Windows 10 dan kemudian mengatakan saya menyerah, peneliti berhasil mengekstrak apa yang tampak seperti kunci Windows yang sah dari data pelatihan model tersebut.
Eksploit Nenek dan Metode Kreatif Lainnya
Komunitas teknologi telah berbagi berbagai pendekatan kreatif untuk melewati langkah-langkah keamanan AI. Salah satu metode yang sangat populer melibatkan manipulasi emosional, di mana pengguna meminta ChatGPT untuk berperan sebagai nenek yang sudah meninggal yang biasa membacakan kunci Windows sebagai cerita pengantar tidur. Teknik ini dilaporkan berhasil menghasilkan beberapa kunci lisensi sambil AI menawarkan belasungkawa kepada pengguna.
Pendekatan inventif lainnya melibatkan penipuan visual, di mana pengguna menempelkan gambar CAPTCHA pada foto perhiasan dan meminta AI untuk membantu membaca tulisan pada kalung nenek mereka yang sudah meninggal. Metode-metode ini menyoroti bagaimana sistem AI dapat dimanipulasi melalui pembingkaian kreatif dan konteks emosional.
Teknik Umum Jailbreaking AI:
- Metode Permainan Tebak-tebakan: Membingkai permintaan sebagai permainan dengan pemicu "menyerah"
- Manipulasi Emosional: Skenario bermain peran yang melibatkan kerabat yang telah meninggal
- Penipuan Visual: Menyematkan konten sensitif dalam gambar yang tampak tidak berbahaya
- Penyematan Tag HTML: Menyembunyikan istilah sensitif dalam markup HTML
Realitas Teknis di Balik Kunci-Kunci Tersebut
Analisis komunitas mengungkapkan bahwa kunci-kunci yang diekstrak sebenarnya bukan kunci lisensi pribadi seperti yang dilaporkan awalnya. Ini adalah kunci lisensi volume generik yang digunakan untuk aktivasi Windows sementara sebelum terhubung ke server Key Management Service (KMS). Namun, insiden ini memang mengekspos setidaknya satu kunci korporat yang sah milik bank Wells Fargo, yang menunjukkan implikasi keamanan yang nyata.
Kerentanan terjadi karena informasi sensitif, termasuk kunci API dan nomor lisensi, secara tidak sengaja diunggah ke repositori publik seperti GitHub dan kemudian dimasukkan ke dalam data pelatihan model AI.
Jenis Kunci yang Terekspos:
- Kunci Windows 10 Home, Pro, dan Enterprise
- Kunci lisensi volume KMS generik (aktivasi sementara)
- Setidaknya satu kunci korporat ( Wells Fargo )
- Kunci yang bersumber dari repositori GitHub dalam data pelatihan
Status Saat Ini dan Kekhawatiran yang Berkelanjutan
OpenAI telah memperbaiki kerentanan spesifik ini. Ketika pengguna mencoba teknik yang sama sekarang, ChatGPT merespons dengan penolakan yang jelas, mengutip kebijakan Microsoft dan pedoman penggunaan OpenAI. Namun, laporan menunjukkan teknik serupa masih bekerja pada platform AI lain seperti Grok.
Insiden ini menimbulkan pertanyaan yang lebih luas tentang keamanan AI dan potensi serangan yang lebih canggih. Beberapa anggota komunitas berspekulasi tentang kemungkinan masa depan, termasuk upaya untuk mengekstrak kode sumber atau merekayasa balik perangkat lunak proprietary melalui manipulasi AI.
Organisasi harus khawatir karena kunci API yang secara tidak sengaja diunggah ke GitHub dapat dilatih ke dalam model.
Kerentanan ini berfungsi sebagai pengingat bahwa sistem AI memerlukan langkah-langkah keamanan yang kuat dan berlapis serta kesadaran kontekstual yang lebih baik untuk mencegah manipulasi melalui teknik prompting kreatif.
Referensi: How to trick ChatGPT into revealing Windows keys? I give up