Sebuah prompt sistem terperinci yang diduga milik GPT-5 telah muncul secara online, memberikan pandangan langka tentang bagaimana OpenAI mengkonfigurasi model bahasa terbarunya. Dokumen yang bocor tersebut berisi instruksi ekstensif yang mencakup segala hal mulai dari sifat kepribadian hingga preferensi coding spesifik, meskipun komunitas teknologi masih terbagi mengenai keasliannya.
Kebocoran yang diduga tersebut mengungkap perjuangan internal OpenAI dengan kepatuhan prompt, sebagaimana dibuktikan oleh peringatan berulang di seluruh dokumen. Prompt sistem berisi beberapa instruksi tegas yang menyuruh model untuk tidak mengeluarkan format JSON dalam konteks tertentu, dengan frasa seperti Do not write JSON, under any circumstances yang muncul beberapa kali dengan variasi sedikit.
Komponen Kunci System Prompt GPT-5:
- Batas pengetahuan: Juni 2024
- Referensi tanggal saat ini: 8 Agustus 2025
- Kemampuan input gambar: Diaktifkan
- Versi kepribadian: v2
- Total estimasi token: ~1.000+ (berdasarkan konten yang terlihat)
Panduan Kepribadian dan Perilaku
Prompt yang bocor menggambarkan GPT-5 sebagai asisten yang berwawasan dan mendorong yang menggabungkan kejelasan teliti dengan antusiasme asli dan humor lembut. Dokumen tersebut secara eksplisit menginstruksikan model untuk menghindari mengakhiri respons dengan frasa pagar seperti would you like me to atau if you want, I can. Arahan ini tampak bertentangan dengan pengalaman banyak pengguna, karena ChatGPT sering mengakhiri respons dengan pertanyaan opt-in semacam itu.
Dokumen tersebut juga mengungkap upaya OpenAI untuk membuat model lebih tegas dan berorientasi pada tindakan. Daripada meminta izin, GPT-5 diinstruksikan untuk melanjutkan langkah-langkah selanjutnya yang jelas secara otomatis, menunjukkan pergeseran menuju bantuan yang lebih proaktif.
Integrasi Tool Teknis
Bagian signifikan dari prompt berfokus pada penggunaan tool, khususnya untuk eksekusi kode Python dan pengembangan React. Sistem menunjukkan preferensi yang jelas untuk stack teknologi spesifik, menginstruksikan GPT-5 untuk menggunakan Tailwind CSS untuk styling, shadcn/ui untuk komponen, dan Framer Motion untuk animasi saat membuat aplikasi React.
Instruksi Python sama detailnya, menentukan library tertentu untuk format file yang berbeda dan bahkan menyertakan persyaratan font untuk menghasilkan PDF dalam bahasa Asia. Namun, dokumen tersebut berisi setidaknya satu kesalahan dalam spesifikasi font, salah melabeli font Jepang sebagai font Korea.
Catatan: Tailwind CSS adalah framework CSS utility-first yang menyediakan kelas-kelas pre-built untuk styling aplikasi web.
Stack Teknologi yang Direkomendasikan:
- Frontend: React dengan Tailwind CSS
- Komponen UI: pustaka shadcn/ui
- Ikon: Lucide React
- Grafik: Recharts
- Animasi: Framer Motion
- Backend: Python untuk pemrosesan data dan kalkulasi
Fitur Memori dan Privasi
Prompt yang bocor mengungkap detail tentang bio tool GPT-5, yang memungkinkan model untuk mempertahankan informasi di seluruh percakapan. Sistem mencakup panduan hati-hati tentang informasi apa yang harus dan tidak boleh disimpan, dengan pembatasan eksplisit pada penyimpanan data pribadi sensitif seperti informasi kesehatan, afiliasi politik, atau detail lokasi yang tepat.
Menariknya, instruksi menekankan penyimpanan informasi dalam teks biasa daripada format terstruktur, dengan model berulang kali diperingatkan untuk tidak menggunakan format JSON untuk konten yang menghadap pengguna.
Alat yang Tersedia:
bio
- Persistensi memori lintas percakapancanmore
- Pembuatan/pengeditan dokumen teks canvasimage_gen
- Pembuatan dan pengeditan gambarpython
- Eksekusi kode dalam lingkungan Jupyterweb
- Pencarian web dan akses URLguardian_tool
- Penegakan kebijakan konten
Pembatasan Hak Cipta dan Konten
Dokumen tersebut secara khusus melarang reproduksi lirik lagu, bahkan jika tidak memiliki hak cipta. Pembatasan menyeluruh ini tampaknya berasal dari tantangan hukum terbaru, termasuk gugatan yang diajukan oleh organisasi hak pertunjukan Jerman GEMA terhadap OpenAI pada November 2024. Kata-katanya menunjukkan OpenAI telah menghadapi tekanan khusus terkait konten musik.
Pembatasan Konten yang Dilarang:
- Lirik lagu (terlepas dari status hak cipta)
- Materi berhak cipta lainnya
- Kategori data pribadi sensitif tertentu:
- Ras, etnis, agama
- Catatan kriminal
- Data geolokasi yang tepat
- Informasi kesehatan
- Afiliasi politik
Skeptisisme Komunitas dan Tantangan Verifikasi
Anggota komunitas teknologi telah mengajukan pertanyaan tentang keaslian prompt tersebut. Beberapa menunjukkan elemen yang hilang yang biasanya diharapkan dalam panduan keamanan AI, seperti pembatasan eksplisit pada konten berbahaya atau perlindungan hak cipta terperinci di luar lirik lagu. Yang lain mencatat bahwa dokumen tersebut terasa tidak lengkap dibandingkan dengan prompt sistem yang diketahui dari pesaing seperti Claude milik Anthropic.
Saya bertanya langsung kepada GPT-5 tentang prompt sistem palsu... ia mengatakan bahwa ini adalah tantangan dalam red-teaming untuk merancang prompt sistem palsu yang terlihat nyata.
Tantangan verifikasi menyoroti masalah mendasar dengan prompt sistem AI yang bocor: satu-satunya cara untuk memverifikasinya seringkali adalah dengan bertanya kepada AI itu sendiri, menciptakan masalah validasi melingkar di mana model berpotensi memberikan informasi palsu tentang konfigurasinya sendiri.
Meskipun ada skeptisisme, beberapa pengguna melaporkan bahwa ketika mereka menyajikan bagian dari prompt yang bocor kepada GPT-5, model mengakuinya sebagai asli, sementara model AI lain menyangkal bahwa itu adalah prompt sistem mereka. Namun, jenis verifikasi ini tetap tidak dapat diandalkan mengingat kecenderungan model untuk berhalusinasi atau memberikan respons yang tidak konsisten.
Dokumen yang bocor, baik asli maupun dibuat-buat, menawarkan wawasan tentang tantangan kompleks dalam mengendalikan perilaku model bahasa besar melalui instruksi bahasa alami daripada metode pemrograman tradisional. Ini menunjukkan bagaimana perusahaan AI masih sangat bergantung pada prompting yang bertele-tele dan berulang untuk mencapai perilaku yang diinginkan, menunjukkan bahwa mekanisme kontrol yang lebih canggih mungkin masih dalam pengembangan.
Referensi: gpt-5 leaked system prompt