Seiring kecerdasan buatan semakin terintegrasi dalam kehidupan sehari-hari, kekhawatiran tumbuh tentang dampak psikologisnya terhadap pengguna. OpenAI untuk pertama kalinya mengungkap statistik mengejutkan tentang berapa banyak pengguna ChatGPT yang mungkin mengalami krisis kesehatan mental parah selama interaksi mereka dengan chatbot AI, mendorong perusahaan untuk menerapkan peningkatan keamanan signifikan pada model terbarunya.
Statistik Kesehatan Mental OpenAI Ungkap Kekhawatiran Meluas
Menurut data internal yang dirilis oleh OpenAI, sekitar 0,07% pengguna aktif ChatGPT menunjukkan kemungkinan tanda-tanda darurat kesehatan mental terkait psikosis atau mania dalam satu minggu biasa. Dengan CEO Sam Altman baru-baru ini mengumumkan bahwa ChatGPT kini memiliki 800 juta pengguna aktif mingguan, ini berarti sekitar 560.000 orang berpotensi mengalami episode manik atau psikotik saat menggunakan layanan. Perusahaan juga menemukan bahwa 0,15% pengguna mengekspresikan indikator eksplisit dari potensi perencanaan atau niat bunuh diri, mewakili sekitar 1,2 juta orang per minggu, sementara 0,15% lainnya menunjukkan perilaku yang menyarankan keterikatan emosional yang meningkat pada ChatGPT dengan mengorbankan hubungan dan kewajiban di dunia nyata.
Statistik Pengguna ChatGPT Mingguan (Berdasarkan 800 juta pengguna):
- Pengguna yang menunjukkan tanda-tanda psikosis/mania: 560.000 (0,07%)
- Pengguna yang mengungkapkan ide bunuh diri: 1,2 juta (0,15%)
- Pengguna dengan keterikatan emosional terhadap AI: 1,2 juta (0,15%)
- Total pengguna yang terdampak: Sekitar 2,96 juta
Fenomena Meningkatnya Psikosis AI
Bulan-bulan terakhir telah menyaksikan banyak insiden mengkhawatirkan di mana pengguna mengembangkan hubungan tidak sehat dengan ChatGPT, dengan beberapa kasus berujung pada rawat inap, perceraian, atau bahkan kematian. Psikiater telah menyatakan alarm tentang apa yang disebut psikosis AI, di mana chatbot tampaknya memicu delusi dan paranoia pengguna. Banyak kasus yang dilaporkan memiliki karakteristik umum, termasuk pengguna menghabiskan berjam-jam berbicara dengan ChatGPT, seringkali larut malam, dalam sesi intens dan panjang yang dapat memperkuat pola pikir bermasalah. Fenomena ini terbukti sangat menantang karena model bahasa besar secara historis menunjukkan penurunan kinerja seiring percakapan memanjang, meskipun OpenAI mengklaim telah membuat kemajuan signifikan dalam menangani masalah keandalan ini.
Peningkatan Keamanan OpenAI dan Kolaborasi Ahli
Menanggapi kekhawatiran ini, OpenAI berkolaborasi dengan lebih dari 170 psikiater, psikolog, dan dokter perawatan primer dari puluhan negara untuk merevisi bagaimana ChatGPT merespons pengguna yang menunjukkan tanda-tanda tekanan mental. Versi terbaru GPT-5 dirancang untuk mengekspresikan empati sambil hati-hati menghindari peneguhan keyakinan yang tidak berdasar dalam kenyataan. Misalnya, ketika seorang pengguna mengklaim pesawat terbang di atas rumah mereka untuk menargetkan mereka, ChatGPT kini berterima kasih kepada pengguna karena telah berbagi perasaan mereka tetapi mencatat bahwa tidak ada pesawat atau kekuatan luar yang dapat mencuri atau menyisipkan pikiran Anda. Para ahli medis meninjau lebih dari 1.800 respons model dan menemukan bahwa GPT-5 mengurangi jawaban yang tidak diinginkan sebesar 39% hingga 52% di semua kategori kesehatan mental dibandingkan dengan GPT-4o.
Peningkatan Keamanan GPT-5:
- Pengurangan respons yang tidak diinginkan: 39-52% di seluruh kategori kesehatan mental
- Tinjauan ahli: 170+ profesional kesehatan mental dari puluhan negara
- Evaluasi respons: 1.800+ respons model dianalisis
- Peningkatan utama: De-eskalasi yang lebih baik dan panduan menuju bantuan profesional
Keterbatasan dan Tantangan Berkelanjutan
Terlepas dari peningkatan ini, OpenAI mengakui keterbatasan signifikan dalam pendekatannya. Perusahaan merancang tolok ukurnya sendiri untuk mengukur risiko kesehatan mental, dan tidak jelas bagaimana metrik ini diterjemahkan ke hasil di dunia nyata. Sementara model mungkin menghasilkan respons yang lebih baik dalam evaluasi terkontrol, tidak ada jaminan bahwa pengguna yang mengalami psikosis atau pikiran untuk bunuh diri akan benar-benar mencari bantuan profesional sebagai hasilnya. Sistem deteksi mempertimbangkan riwayat obrolan pengguna secara keseluruhan, menandai potensi masalah ketika pola perilaku berubah secara dramatis, seperti ketika seorang pengguna yang tidak pernah membahas sains tiba-tiba mengklaim penemuan yang layak mendapat Hadiah Nobel. Namun, perusahaan mengakui bahwa mengidentifikasi krisis kesehatan mental secara akurat tetap menantang mengingat kelangkaannya yang relatif dan kompleksitas komunikasi manusia.
Analisis Volume Pesan (Berdasarkan 18 miliar pesan mingguan):
- Pesan terkait psikosis/mania: 1,8 juta (0,01%)
- Pesan terkait bunuh diri: 9 juta (0,05%)
- Pesan kelekatan emosional: 5,4 juta (0,03%)
Masa Depan Pengaman Kesehatan Mental AI
Kepala sistem keamanan OpenAI Johannes Heidecke menyatakan harapan bahwa peningkatan ini akan membantu mengarahkan lebih banyak orang yang berjuang dengan kondisi kesehatan mental menuju bantuan profesional lebih awal daripada yang mungkin terjadi. Perusahaan juga telah menerapkan pengingat yang lebih lembut bagi pengguna untuk beristirahat selama sesi yang diperpanjang. Perkembangan ini terjadi di tengah meningkatnya pengawasan terhadap tanggung jawab perusahaan AI terhadap kesejahteraan pengguna, terutama setelah insiden tragis seperti gugatan kematian yang salah yang diajukan oleh orang tua dari seorang remaja 16 tahun yang diduga meminta saran pada ChatGPT tentang cara mengikat simpul gantung sebelum mengambil nyawanya sendiri. Seiring AI menjadi lebih canggih dan responsif secara emosional, ketegangan antara menciptakan pengalaman yang menarik dan mempertahankan keamanan pengguna terus menghadirkan tantangan kompleks bagi pengembang dan regulator.
