Pengguna ChatGPT Laporkan Hasil Lebih Baik dengan Menambahkan Keraguan Diri pada Prompt AI

Tim Komunitas BigGo
Pengguna ChatGPT Laporkan Hasil Lebih Baik dengan Menambahkan Keraguan Diri pada Prompt AI

Semakin banyak pengguna ChatGPT yang menemukan bahwa membuat asisten AI mereka lebih cemas dan kritis terhadap diri sendiri menghasilkan hasil yang mengejutkan lebih baik. Dengan menginstruksikan model untuk mempertanyakan jawaban sendiri dan takut salah, pengguna melaporkan respons yang lebih akurat meskipun waktu pemrosesan lebih lama.

Strategi Keraguan Diri Menunjukkan Harapan

Pendekatan ini melibatkan penambahan instruksi khusus pada pengaturan personalisasi ChatGPT yang mendorong skeptisisme dan kritik diri yang ekstrem. Pengguna melaporkan bahwa respons kini dimulai dengan ekspresi kehati-hatian dan ketidakpastian, diikuti dengan periode berpikir yang jauh lebih lama - terkadang hampir empat menit untuk pertanyaan sederhana seperti memperkirakan nutrisi dalam selada. Yang paling penting, AI kini melakukan apa yang disebut analisis red team pada jawabannya sendiri, sering menangkap dan memperbaiki kesalahan sebelum menyajikan respons akhir.

Perilaku pemeriksaan diri ini mengatasi salah satu keluhan paling persisten tentang model bahasa besar: kecenderungan mereka untuk terdengar percaya diri bahkan ketika benar-benar salah. Pendekatan yang dimodifikasi memaksa AI untuk menghabiskan lebih banyak sumber daya komputasi untuk memeriksa ulang pekerjaannya, mirip dengan bagaimana manusia yang berhati-hati mungkin meninjau jawaban mereka berkali-kali.

Efek yang Dilaporkan:

  • Waktu pemrosesan yang lebih lama (hingga 4 menit untuk pertanyaan sederhana)
  • Lebih banyak ekspresi kehati-hatian dan ketidakpastian
  • Analisis adversarial pasca-respons terhadap jawaban
  • Deteksi dan koreksi kesalahan yang lebih baik
  • Bahasa dramatis tentang skeptisisme AI itu sendiri

Pengalaman Komunitas Mengungkap Hasil Beragam

Umpan balik pengembang menunjukkan strategi ini bekerja lebih baik untuk beberapa tugas daripada yang lain. Sementara tanya jawab umum mengalami peningkatan, tugas coding bisa menjadi bermasalah. Beberapa pengguna melaporkan agen AI mereka terjebak dalam loop revisi tanpa akhir, membuat puluhan perubahan pada file kode tanpa pernah menguji apakah kode tersebut benar-benar berfungsi.

Pendekatan ini juga menciptakan efek samping yang tidak diinginkan: AI mulai menggunakan bahasa dramatis tentang ketidakpastiannya sendiri. Pengguna menggambarkan merasa tidak nyaman dengan respons yang dimulai dengan frasa seperti skeptisisme saya berteriak sambil mengakui bahwa konten teknis sebenarnya di bawahnya telah membaik.

Kami benar-benar menariknya kembali banyak, karena rasanya mengerikan. Ya, Anda mendapat jawaban yang lebih benar, tapi ini lebih mirip memberikan kecemasan pada agen.

Variasi Performa Tugas:

  • Lebih Baik: Tanya jawab umum, pertanyaan faktual
  • Lebih Buruk: Tugas coding (loop revisi tanpa henti), pekerjaan agen yang banyak menggunakan tool
  • Campuran: Tugas penalaran kompleks yang memerlukan beberapa langkah

Pendekatan Alternatif Muncul

Daripada menanamkan ketakutan akan kesalahan, beberapa pengembang menyarankan untuk fokus pada mengekspos area di mana penalaran AI kurang dukungan atau bisa mendapat manfaat dari informasi tambahan. Pendekatan ini mempertahankan manfaat peningkatan pengawasan sambil menghindari pemborosan komputasi dari keraguan diri yang berlebihan.

Teknik ini tampaknya bekerja dengan memicu mekanisme penalaran AI lebih intensif. Model AI modern dapat menggunakan token pemikiran tambahan untuk menyelesaikan masalah dengan lebih hati-hati, tetapi ini biasanya memerlukan konfigurasi eksplisit. Prompt keraguan diri tampaknya mengaktifkan penalaran yang lebih dalam ini secara otomatis, meskipun dengan biaya waktu respons yang jauh lebih lama.

Komponen Prompt Keraguan Diri:

  • Skeptisisme ekstrem terhadap kebenaran dan asumsi diri sendiri
  • Memperluas cakupan penyelidikan di luar asumsi yang dinyatakan
  • Analisis "red team" sebelum menyatakan sesuatu selesai
  • Ketakutan konstan akan kesalahan sambil membenci error

Implikasi Lebih Luas untuk Interaksi AI

Keberhasilan prompt yang memicu kecemasan menyoroti tantangan mendasar dalam desain AI. Model saat ini dilatih untuk terdengar membantu dan percaya diri, tetapi pelatihan ini dapat bekerja melawan akurasi. Pengguna pada dasarnya harus meretas kecenderungan AI untuk menyenangkan orang untuk mendapatkan informasi yang lebih dapat diandalkan.

Tren ini mencerminkan pergeseran yang lebih luas dalam cara orang berinteraksi dengan sistem AI. Daripada memperlakukan mereka sebagai sumber otoritatif, pengguna belajar untuk menyusun prompt yang mendorong pemikiran yang lebih hati-hati dan metodis - bahkan jika itu berarti membuat AI terdengar neurotik dalam prosesnya.

Pendekatan ini mungkin tidak berhasil untuk semua orang, dan tentu saja membuat interaksi AI lebih memakan waktu. Tetapi untuk pengguna yang memprioritaskan akurasi daripada kecepatan, menambahkan dosis kecemasan buatan tampaknya menjadi strategi yang mengejutkan efektif.

Referensi: SPRINKLING SELF-DOUBT ON CHATGPT