Seorang peneliti keamanan telah mengungkapkan secara publik apa yang mereka klaim sebagai kerentanan serius dalam sistem OpenAI yang dapat memungkinkan pengguna melihat respons chat yang ditujukan untuk orang lain. Peneliti tersebut, yang menggunakan nama samaran requilence, melaporkan masalah ini kepada OpenAI pada 29 Mei 2025, tetapi mengatakan mereka hanya menerima respons otomatis tanpa tindak lanjut dari manusia hingga 16 Juli.
Kronologi Peristiwa:
- 29 Mei 2025: Kerentanan dilaporkan kepada OpenAI melalui email terenkripsi
- Pengakuan otomatis diterima, tidak ada tindak lanjut dari manusia
- 16 Juli 2025: Pengungkapan publik setelah periode tunggu 45 hari
- Masalah tetap belum diperbaiki menurut peneliti
Klaim Kerentanan dan Perdebatan Bukti
Peneliti tersebut mengklaim telah menemukan celah yang mengekspos percakapan chat pengguna lain, yang berpotensi mencakup data pribadi, rencana bisnis, dan kode proprietary. Untuk mendukung klaim mereka, mereka menunjuk pada apa yang mereka gambarkan sebagai respons yang bocor yang menunjukkan balasan yang sesuai konteks dalam berbagai bahasa dengan alur percakapan yang koheren.
Bukti paling meyakinkan yang disajikan melibatkan data keuangan untuk sebuah perusahaan yang tidak terkenal. Peneliti tersebut menyatakan mereka menerima informasi keuangan yang akurat tentang sebuah perusahaan kecil dengan nama non-Latin, tetapi ketika mereka kemudian meminta ChatGPT untuk informasi yang sama tanpa pencarian web diaktifkan, sistem merespons bahwa tidak memiliki data tersebut dalam set pelatihan. Ini menunjukkan respons asli berasal dari sesi pengguna nyata dengan kemampuan pencarian web.
Namun, komunitas teknologi tetap terbagi tentang apakah ini merupakan bukti kerentanan yang sesungguhnya. Beberapa komentator berargumen bahwa model bahasa modern seperti GPT-4o cukup canggih untuk menghasilkan percakapan yang tampak realistis yang dapat disalahartikan sebagai interaksi pengguna nyata. Perdebatan ini menyoroti tantangan mendasar dalam membedakan antara halusinasi AI dan kebocoran data aktual.
Halusinasi: Ketika model AI menghasilkan informasi palsu atau dibuat-buat yang tampak realistis tetapi tidak berdasarkan data nyata.
Kekhawatiran Platform Bug Bounty
Peneliti tersebut memilih untuk melewati program bug bounty resmi OpenAI di Bugcrowd, dengan alasan kekhawatiran tentang perjanjian non-disclosure yang membatasi. Mereka berargumen bahwa NDA ini mencegah peneliti dari membahas temuan mereka secara publik bahkan setelah masalah diselesaikan, yang mereka pandang bertentangan dengan nilai-nilai komunitas keamanan.
Keputusan ini telah memicu diskusi tentang praktik industri. Sementara beberapa membela NDA sebagai prosedur standar untuk program bug bounty, yang lain menunjukkan bahwa perusahaan besar seperti Google, Microsoft, dan Mozilla biasanya hanya memerlukan pengungkapan terkoordinasi daripada keheningan permanen. Peneliti tersebut mengadvokasi transparansi dalam penelitian keamanan, berargumen bahwa hal ini menguntungkan komunitas yang lebih luas dan membuat perusahaan bertanggung jawab untuk perbaikan yang tepat waktu.
Standar Industri yang Dirujuk:
- Jendela pengungkapan 45 hari ( CERT/CC , ISO/IEC 29147 )
- Pengungkapan terkoordinasi vs NDA permanen
- Perbandingan dengan praktik Google , Microsoft , Mozilla
Respons Komunitas dan Skeptisisme
Pengungkapan ini telah menghasilkan perdebatan signifikan dalam komunitas keamanan. Beberapa memuji peneliti karena mengikuti praktik pengungkapan yang bertanggung jawab dan menunggu jendela standar 45 hari sebelum go public. Yang lain mempertanyakan validitas klaim, mencatat kurangnya bukti teknis proof-of-concept atau langkah reproduksi.
Segala sesuatu rentan. Pertanyaannya adalah, apakah peneliti ini telah menunjukkan bahwa mereka telah menemukan dan berhasil mengeksploitasi kerentanan tersebut.
Beberapa anggota komunitas telah mereferensikan insiden sebelumnya OpenAI pada Maret 2020, ketika bug caching Redis secara singkat mengekspos judul chat (meskipun bukan percakapan penuh) kepada pengguna lain. Konteks historis ini menambah bobot pada kekhawatiran tentang potensi kerentanan sambil juga menunjukkan bahwa OpenAI telah menghadapi masalah serupa sebelumnya.
Rekomendasi Peneliti untuk Pengguna:
- Hindari berbagi konten sensitif dengan model OpenAI hingga perbaikan resmi tersedia
- Gunakan fitur segmentasi data ketika tersedia
- Hapus identitas personal dari prompt
- Pantau halaman keamanan OpenAI untuk pembaruan
Implikasi untuk Keamanan AI
Insiden ini, baik terbukti atau tidak, menyoroti kekhawatiran yang lebih luas tentang keamanan dan privasi AI. Ketika model bahasa menjadi lebih terintegrasi ke dalam alur kerja harian, dampak potensial dari pelanggaran data tumbuh secara signifikan. Pengguna semakin berbagi informasi pribadi dan bisnis yang sensitif dengan sistem AI, membuat isolasi yang tepat antara sesi pengguna menjadi kritis.
Rekomendasi peneliti tersebut termasuk menghindari berbagi konten sensitif dengan model OpenAI sampai respons resmi diberikan, dan mereka menyerukan praktik keamanan yang lebih baik di seluruh industri AI, termasuk waktu respons yang lebih cepat untuk laporan kerentanan dan penilaian keamanan pihak ketiga yang reguler.
OpenAI belum merespons secara publik terhadap klaim ini, dan status kerentanan tetap tidak jelas pada laporan ini.