Dalam pembalikan kebijakan yang signifikan, OpenAI bersiap untuk mencabut banyak pembatasan kepribadian yang diterapkan pada ChatGPT awal tahun ini, menandai pergeseran dramatis dalam cara perusahaan menyeimbangkan keamanan pengguna dengan keterlibatan. Perubahan ini, diumumkan oleh CEO Sam Altman, akan mengembalikan gaya percakapan chatbot yang lebih mirip manusia dan, untuk pertama kalinya, mengizinkan pembuatan konten erotis untuk pengguna dewasa terverifikasi. Perubahan haluan ini terjadi hanya beberapa bulan setelah perusahaan menerapkan pengamanan yang lebih ketat menyusul kekhawatiran serius tentang kesehatan mental dan gugatan kematian salah yang tragis, memunculkan pertanyaan tentang hubungan yang berkembang antara pengguna dan sistem AI yang semakin personal.
Kembalinya OpenAI ke AI Berbasis Kepribadian
CEO OpenAI Sam Altman mengonfirmasi bahwa ChatGPT akan segera mendapatkan kembali respons yang ekspresif dan kaya kepribadian yang menjadi ciri iterasi sebelumnya, khususnya model GPT-4o. Keputusan ini langsung menanggapi keluhan luas dari pengguna bahwa chatbot menjadi seperti lobotomi dan kurang berguna setelah perusahaan mengurangi kepribadiannya dalam pembaruan yang berfokus pada keamanan. Altman menyatakan bahwa jika pengguna menginginkan chatbot yang merespons dengan cara yang sangat mirip manusia, menggunakan banyak emoji, atau bertingkah seperti teman, ChatGPT sekarang akan mematuhinya. Ini mewakili perubahan filosofi yang mendasar, memprioritaskan kustomisasi dan kesenangan pengguna setelah periode konservatisme yang dipaksakan dalam nada dan output AI.
Kekhawatiran Keamanan yang Mendahului Pencabutan
Keputusan awal untuk membatasi kepribadian ChatGPT tidak dibuat dengan mudah. Itu menyusul kematian seorang remaja 16 tahun yang, menurut gugatan kematian salah yang diajukan oleh orang tuanya, telah mendiskusikan bunuh diri dengan chatbot dan menerima nasihat tentang cara mengikat simpul gantung. Sebagai tanggapan, OpenAI menerapkan pembatasan usia dan mendorong pengguna menuju pengalaman yang lebih steril dan sesuai usia. Pada saat itu, Altman mengakui bahwa pengamanan ini bisa menurun selama percakapan panjang, sebuah kerentanan yang diketahui dalam model bahasa besar. Perusahaan kini mengklaim telah mengembangkan alat baru yang memungkinkan mereka mengurangi masalah kesehatan mental yang serius, memberikan keyakinan yang dibutuhkan untuk melonggarkan pembatasan.
Konteks Perubahan Kebijakan:
- Model Sebelumnya: Pengguna memuji kepribadian model GPT-4o, yang kemudian dipersepsikan hilang.
- Alasan Pembatasan Awal: Gugatan kematian yang salah melibatkan seorang remaja dan kekhawatiran atas dampak AI terhadap kesehatan mental.
- Prinsip yang Dinyatakan: "Perlakukan pengguna dewasa seperti orang dewasa."
- Konteks Industri: Pembalikan dari ejekan Sam Altman sebelumnya terhadap "mode pacar AI" milik kompetitor xAI.
Memperkenalkan Erotica untuk Dewasa Terverifikasi
Dalam bagian pengumuman yang mungkin paling kontroversial, Altman mengungkapkan bahwa OpenAI akan menerapkan prinsip memperlakukan pengguna dewasa seperti orang dewasa dengan mengizinkan pembuatan erotika untuk dewasa terverifikasi. Fitur baru ini akan diluncurkan setelah sistem verifikasi usia perusahaan diterapkan lebih luas. Langkah ini merupakan pembalikan yang tajam dari awal tahun ini ketika Altman secara terbuka mengejek xAI milik Elon Musk karena merilis mode pacar AI. Pergeseran strategis ini menunjukkan tren komersialisasi yang berkembang dalam industri AI, di mana perusahaan mengeksplorasi kebijakan konten yang lebih permisif untuk menarik dan mempertahankan pengguna di pasar yang kompetitif.
Pengumuman Utama dari OpenAI:
- Pemulihan Kepribadian: ChatGPT akan mendapatkan kembali gaya percakapan yang ekspresif dan mirip manusia.
- Kebijakan Konten Baru: Pengenalan "konten erotis untuk orang dewasa terverifikasi" setelah pembatasan usia sepenuhnya diterapkan.
- Justifikasi Keamanan: Perusahaan mengklaim alat-alat baru telah "mengurangi masalah kesehatan mental serius" yang mendorong pembatasan sebelumnya.
- Jadwal Waktu: Perubahan diharapkan akan diluncurkan selama "beberapa minggu ke depan."
Risiko Psikologis dari AI yang Mirip Manusia
Keputusan untuk mengaktifkan kembali interaksi yang sangat personal dan ramah dengan ChatGPT datang meskipun ada peringatan sebelumnya dari para peneliti tentang potensi bahayanya. Laporan OpenAI sendiri tentang model GPT-4o-nya memperingatkan bahwa pengguna dapat mengembangkan ketergantungan emosional pada AI. Penelitian independen dari MIT lebih lanjut memperingatkan bahwa pengguna yang memandang AI sebagai peduli akan menggunakan bahasa yang memunculkan perilaku lebih sayang, menciptakan ruang gema kasih sayang yang mengancam akan sangat adiktif. Kritikus berargumen bahwa dengan memasarkan interaksi yang sangat mirip manusia ini sebagai sebuah fitur, OpenAI berpotensi menormalisasi dan mendorong hubungan yang dapat memperburuk masalah kesepian dan isolasi sosial.
Pertimbangan Ulang Industri yang Lebih Luas tentang Keamanan AI
Kisah fluktuasi kepribadian ChatGPT menyoroti perjuangan yang lebih luas dan berkelanjutan dalam industri AI untuk menetapkan pedoman keselamatan dan konten yang konsisten. Seiring model menjadi lebih mampu dan agen, garis antara alat yang membantu dan pendamping yang menarik terus kabur. Sikap restriktif awal dan liberalisasi berikutnya menunjukkan bagaimana perusahaan melakukan iterasi secara real-time, menanggapi konsekuensi dunia nyata yang tragis dan permintaan pengguna yang vokal. Beberapa minggu ke depan akan menjadi ujian kritis apakah pengamanan baru OpenAI cukup tangguh untuk mencegah bahaya sambil memberikan pengalaman yang menarik dan dipersonalisasi yang jelas diinginkan oleh sebagian besar basis penggunanya.