Dalam langkah mengejutkan yang membuat komunitas teknologi terkaget, OpenAI telah merilis model open-weight pertamanya, menandai perubahan signifikan bagi perusahaan yang selama ini identik dengan sistem AI tertutup dan proprietary. Rilis ini mencakup dua model: GPT-OSS-120B dan GPT-OSS-20B, keduanya tersedia di bawah lisensi Apache 2.0 dan dirancang untuk berjalan efisien pada perangkat keras konsumen.
Pengumuman ini merupakan perubahan dramatis dari strategi OpenAI sebelumnya. Perusahaan yang menghapus kata Open dari pernyataan misinya bertahun-tahun lalu, kini bersaing langsung dengan laboratorium AI Tiongkok seperti Alibaba (Qwen) dan DeepSeek yang telah mendominasi ruang model open-weight. Waktu peluncurannya tampak strategis, dengan banyak spekulasi bahwa rilis ini dimaksudkan untuk membersihkan dek sebelum pengumuman GPT-5 yang akan segera tiba.
![]() |
---|
Sebuah antarmuka untuk " gpt-oss playground ," di mana pengguna dapat bereksperimen dengan model open-weight OpenAI yang baru dirilis |
Performa yang Menyaingi Model Proprietary
Respons komunitas sangat antusias, terutama mengenai performa model 20B pada perangkat keras konsumen. Pengujian awal menunjukkan model yang lebih kecil mencapai hasil kompetitif dengan sistem proprietary yang jauh lebih besar sambil berjalan lancar pada perangkat seperti MacBook Air M3 dengan RAM 24GB. Pengguna melaporkan kecepatan generasi token 40-70 token per detik pada berbagai konfigurasi perangkat keras, membuatnya benar-benar dapat digunakan untuk aplikasi real-time.
Model 120B menunjukkan kemampuan yang bahkan lebih mengesankan, dengan skor benchmark mendekati model o4 milik OpenAI sendiri pada beberapa evaluasi. Namun, model-model ini menggunakan arsitektur Mixture of Experts (MoE), yang berarti hanya 3,6B parameter yang aktif pada model 20B dan 5,1B pada versi 120B, yang membantu menjelaskan efisiensi mereka.
MoE (Mixture of Experts): Arsitektur di mana hanya sebagian dari parameter model yang digunakan untuk setiap input, meningkatkan efisiensi sambil mempertahankan performa.
Tolok Ukur Performa (Hasil Terpilih)
- GPQA Diamond: GPT-OSS-120B : 80,1% vs Qwen3-235B : 81,1%
- Humanity's Last Exam: GPT-OSS-120B : 19,0% (dengan tools), 14,9% (tanpa tools)
- MMLU: GPT-OSS-20B masuk dalam 10 besar, di belakang Gemini-2.5-Pro
- Kecepatan Generasi Token: 40-70 token/detik pada perangkat keras konsumen (bervariasi berdasarkan konfigurasi)
Persyaratan Perangkat Keras dan Aksesibilitas
Salah satu aspek yang paling banyak dibahas adalah aksesibilitas perangkat keras model-model ini. Model 20B memerlukan sekitar 15GB RAM dan dapat berjalan pada perangkat keras konsumen kelas menengah, sementara model 120B membutuhkan sekitar 60GB unified memory atau VRAM. Ini menempatkan kemampuan AI tingkat frontier dalam jangkauan banyak developer dan peneliti yang sebelumnya bergantung pada layanan cloud mahal.
Model-model ini menggunakan kuantisasi MXFP4 native, format 4-bit yang secara signifikan mengurangi kebutuhan memori sambil mempertahankan kualitas. Pencapaian teknis ini memungkinkan model 120B muat pada satu GPU 80GB, membuatnya dapat diakses oleh organisasi kecil dan peneliti individu.
MXFP4: Format floating-point 4-bit yang hanya menggunakan 4,25 bit per parameter, secara dramatis mengurangi penggunaan memori dibandingkan format 16-bit tradisional.
Spesifikasi Model
Model | Total Parameter | Parameter Aktif | Kebutuhan Memori | Lisensi |
---|---|---|---|---|
GPT-OSS-120B | 116.8B | 5.1B | ~60GB VRAM/RAM | Apache 2.0 |
GPT-OSS-20B | 20B | 3.6B | ~15GB VRAM/RAM | Apache 2.0 |
Kedua model menggunakan arsitektur MoE ( Mixture of Experts ) dengan kuantisasi MXFP4 native dan mendukung jendela konteks 131K.
Penerimaan Beragam pada Performa Praktis
Meskipun ada kegembiraan, pengujian komunitas mengungkap beberapa keterbatasan. Sementara model-model ini unggul dalam tugas penalaran dan matematika, pengguna melaporkan kelemahan signifikan dalam penulisan kreatif, terjemahan, dan pengetahuan umum dibandingkan alternatif open-weight yang sudah mapan seperti Qwen3 dan GLM-4.5. Model-model ini juga tampak sangat difilter untuk keamanan, terkadang menolak menjawab pertanyaan yang tidak berbahaya.
Model 20b terus memilih jawaban dari teka-teki asli, bahkan setelah menjelaskan informasi tambahan kepadanya.
Performa coding, yang secara tradisional menjadi kekuatan model OpenAI, menunjukkan hasil beragam. Beberapa pengguna merasa sebanding dengan GPT-4.1 untuk tugas tertentu, sementara yang lain melaporkan performanya lebih rendah dibanding model coding khusus seperti Qwen3-Coder-30B.
Implikasi Strategis dan Dampak Industri
Rilis ini memiliki implikasi signifikan bagi industri AI. Dengan menawarkan model open-weight yang kompetitif, OpenAI pada dasarnya mengkomoditisasi tingkat bawah kemampuan AI sambil diduga tetap menjaga teknologi paling canggih mereka tetap proprietary. Strategi ini mencerminkan pendekatan Meta dengan Llama tetapi datang pada saat perusahaan-perusahaan Tiongkok telah memimpin ruang open-weight.
Langkah ini juga menjawab permintaan enterprise yang meningkat untuk solusi AI on-premises. Banyak organisasi di bidang keuangan, kesehatan, dan pemerintahan tidak dapat menggunakan layanan AI berbasis cloud karena persyaratan regulasi atau keamanan. Model open-weight ini menyediakan alternatif yang layak untuk kasus penggunaan tersebut.
Persyaratan Perangkat Keras dan Kompatibilitas
Persyaratan Minimum:
- GPT-OSS-20B : RAM 16GB, dapat berjalan di MacBook Air M3 , RTX 3090 , RTX 4060 Ti
- GPT-OSS-120B : unified memory/VRAM 60GB+, optimal di Mac Studio , RTX 6000 Pro
Platform yang Didukung:
- Ollama , LM Studio , llama.cpp
- Penyedia cloud: Groq (1000+ tok/s), Cerebras (3815 tok/s), Fireworks
- Harga di OpenRouter : $0.15M input / $0.6-0.75M output token (USD)
Melihat ke Depan
Konsensus komunitas menunjukkan model-model ini mewakili performa tingkat menengah yang solid dan dapat diakses oleh audiens yang lebih luas dari sebelumnya. Meskipun mungkin tidak menyamai ujung tombak absolut dari model proprietary, mereka menawarkan proposisi nilai yang menarik untuk banyak aplikasi. Rilis ini juga menandakan bahwa era kemampuan AI yang terkunci di balik API mahal mungkin berakhir, setidaknya untuk tingkat performa tertentu.
Apakah ini menandai perubahan permanen dalam strategi OpenAI atau langkah taktis menjelang GPT-5 masih harus dilihat. Yang jelas adalah bahwa lanskap AI yang dapat diakses baru saja menjadi jauh lebih kompetitif, dengan manfaat potensial bagi developer, peneliti, dan pada akhirnya pengguna akhir di seluruh dunia.
Referensi: Open models by OpenAI