Lanskap regulasi untuk kecerdasan buatan dalam layanan kesehatan mental berkembang pesat saat negara bagian bergulat dengan risiko dan manfaat alat terapi bertenaga AI. Illinois telah bergabung dengan Nevada dan Utah dalam membatasi penggunaan AI di lingkungan terapeutik, sementara CEO OpenAI Sam Altman secara terbuka mengakui kekhawatiran privasi yang signifikan terkait penggunaan ChatGPT untuk dukungan kesehatan mental.
Illinois Menerapkan Pembatasan Terapi AI yang Komprehensif
Gubernur Illinois JB Pritzker menandatangani Wellness and Oversight for Psychological Resources Act menjadi undang-undang pada 1 Agustus 2024, menjadikan negara bagian tersebut yang ketiga membatasi AI dalam aplikasi terapeutik. Legislasi ini melarang penggunaan kecerdasan buatan untuk menyediakan kesehatan mental dan pengambilan keputusan terapeutik, meskipun profesional kesehatan perilaku berlisensi masih dapat memanfaatkan teknologi AI untuk tugas administratif dan layanan dukungan tambahan. Mario Treto Jr., sekretaris di Departemen Regulasi Keuangan dan Profesional Illinois, menekankan bahwa penduduk berhak mendapat layanan kesehatan berkualitas dari profesional yang memenuhi syarat daripada program komputer yang menghasilkan respons dengan menarik informasi dari seluruh internet.
Negara Bagian dengan Pembatasan Terapi AI
Negara Bagian | Status | Ketentuan Utama |
---|---|---|
Illinois | Diberlakukan (Agustus 2024) | Melarang AI untuk pengambilan keputusan kesehatan mental; mengizinkan penggunaan administratif |
Nevada | Diberlakukan (Juni 2024) | Membatasi AI di sekolah dan layanan kesehatan mental |
Utah | Diberlakukan (Maret 2024) | Mengatur chatbot AI kesehatan mental |
California | Diusulkan | Akan membentuk kelompok kerja kesehatan mental dan AI |
New Jersey | Diusulkan | Akan melarang iklan AI sebagai profesional kesehatan mental berlisensi |
Pennsylvania | Diusulkan | Akan mewajibkan persetujuan orang tua untuk layanan kesehatan mental virtual di sekolah |
Gerakan Tingkat Negara Bagian yang Berkembang Melawan Terapi AI
Momentum regulasi sedang membangun di berbagai negara bagian. Nevada mengesahkan legislasi pada bulan Juni yang membatasi penggunaan AI di sekolah dan membatasi aplikasi oleh penyedia layanan kesehatan mental dan perilaku. Utah memberlakukan regulasi serupa pada bulan Maret, secara khusus menargetkan chatbot kesehatan mental yang memanfaatkan teknologi AI. Tiga negara bagian tambahan secara aktif mempertimbangkan pembatasan mereka sendiri: California mengusulkan pembentukan kelompok kerja kesehatan mental dan AI, New Jersey akan melarang mengiklankan AI sebagai pengganti profesional kesehatan mental berlisensi, dan Pennsylvania berusaha mewajibkan persetujuan orang tua sebelum sekolah dapat memberikan layanan kesehatan mental virtual kepada anak-anak.
CEO OpenAI Mengakui Kerentanan Privasi
Sam Altman, CEO OpenAI, telah mengemukakan kekhawatiran signifikan tentang penggunaan ChatGPT untuk sesi terapi. Dalam wawancara podcast bulan Juli, Altman memperingatkan bahwa percakapan dengan ChatGPT tidak akan selalu tetap pribadi dan mencatat tidak adanya perlindungan hukum untuk informasi pribadi sensitif yang dibagikan dengan sistem AI. Dia menjelaskan bahwa jika proses hukum mengharuskan OpenAI untuk mengungkapkan informasi, saat ini tidak ada dasar untuk melindungi apa yang mungkin dianggap pengguna sebagai komunikasi terapeutik yang rahasia.
Penelitian Mengungkap Keterbatasan Terapi AI
Sebuah studi Stanford University yang diterbitkan sesaat sebelum wawancara Altman menemukan bahwa chatbot terapi AI tidak siap secara memadai untuk menggantikan penyedia kesehatan mental manusia. Penelitian tersebut mengungkapkan bahwa sistem-sistem ini mengekspresikan stigma dan membuat pernyataan yang tidak pantas terkait kondisi kesehatan mental serius, termasuk respons kepada pengguna yang mengalami delusi, pikiran bunuh diri, halusinasi, dan gangguan obsesif-kompulsif. Temuan ini menggarisbawahi potensi risiko penerapan sistem AI dalam konteks kesehatan mental yang sensitif tanpa perlindungan yang tepat.
Kekhawatiran Utama Privasi dan Keamanan yang Teridentifikasi
- Kerentanan Privasi: Sesi terapi ChatGPT mungkin tidak tetap rahasia
- Kesenjangan Perlindungan Hukum: Tidak ada dasar hukum saat ini untuk melindungi informasi sensitif yang dibagikan dengan AI
- Ekspresi Stigma: Chatbot AI menunjukkan bias terhadap kondisi kesehatan mental tertentu
- Respons Tidak Tepat: Sistem membuat pernyataan yang tidak sesuai tentang kondisi serius (delusi, pikiran bunuh diri, halusinasi, OCD)
- Risiko Penggantian: Sistem AI tidak cukup siap untuk menggantikan penyedia layanan kesehatan mental manusia
Implikasi yang Lebih Luas untuk AI dalam Layanan Kesehatan
Konvergensi pembatasan tingkat negara bagian dan pengakuan industri terhadap keterbatasan menandakan titik kritis untuk aplikasi AI dalam layanan kesehatan. Meskipun teknologi ini menawarkan manfaat potensial untuk dukungan administratif dan layanan tambahan, tren regulasi saat ini menekankan nilai yang tidak tergantikan dari keahlian manusia dalam perawatan kesehatan mental. Saat lebih banyak negara bagian mempertimbangkan legislasi serupa, industri AI menghadapi tekanan yang meningkat untuk mengatasi kekhawatiran privasi dan mengembangkan perlindungan yang lebih kuat untuk aplikasi layanan kesehatan yang sensitif.