Qwen3-30B-A3B-Instruct-2507 Menghadirkan Performa Setara GPT-4 pada Perangkat Keras Konsumen

Tim Komunitas BigGo
Qwen3-30B-A3B-Instruct-2507 Menghadirkan Performa Setara GPT-4 pada Perangkat Keras Konsumen

Tim Qwen dari Alibaba telah merilis model AI terbaru mereka, Qwen3-30B-A3B-Instruct-2507, menandai pencapaian penting dalam membuat model bahasa yang powerful dapat diakses pada perangkat keras konsumen. Rilis ini merupakan model kelima dari Qwen dalam waktu hanya sembilan hari, menunjukkan kecepatan pengembangan AI yang belum pernah ada sebelumnya dan menarik perhatian komunitas teknologi.

Model baru ini menghadirkan peningkatan substansial di berbagai area termasuk mengikuti instruksi, penalaran logis, matematika, coding, dan penggunaan tools. Model ini juga memiliki kemampuan pemahaman konteks panjang yang ditingkatkan hingga 360.000 token, membuatnya cocok untuk memproses dokumen dan percakapan yang panjang.

Rilis Model Qwen Terbaru (Juli 2025):

  • 21 Juli: Qwen3-235B-A22B-Instruct-2507
  • 22 Juli: Qwen3-Coder-480B-A35B-Instruct
  • 25 Juli: Qwen3-235B-A22B-Thinking-2507
  • 29 Juli: Qwen3-30B-A3B-Instruct-2507
  • 30 Juli: Qwen3-30B-A3B-Thinking-2507

Performa Sebanding dengan GPT-4 Original

Pengujian awal oleh komunitas menunjukkan bahwa Qwen3-30B-A3B-Instruct-2507 menghadirkan tingkat performa yang sebanding dengan GPT-4 original dari Maret 2023. Pencapaian ini sangat mencolok karena model ini dapat berjalan secara efektif pada perangkat keras konsumen dengan RAM 32GB ketika dikuantisasi, membuat kemampuan AI canggih dapat diakses oleh developer dan peneliti individual.

Model ini menunjukkan kecepatan yang mengesankan pada perangkat keras konsumen high-end, mencapai lebih dari 100 token per detik pada konteks yang lebih kecil dan mempertahankan lebih dari 20 token per detik untuk konteks besar ketika berjalan pada MacBook M4 Max dengan RAM 128GB menggunakan kuantisasi 4-bit.

Persyaratan Hardware:

  • Minimum: 32GB RAM (versi quantized)
  • Direkomendasikan: 48GB RAM untuk operasi yang nyaman
  • Performa optimal: MacBook M4 Max dengan 128GB RAM
  • Performa: 100+ token/detik (konteks kecil), 20+ token/detik (konteks besar)
Perbandingan kinerja Qwen3-30B-A3B-Instruct-2507 dengan model AI terdepan lainnya di berbagai benchmark
Perbandingan kinerja Qwen3-30B-A3B-Instruct-2507 dengan model AI terdepan lainnya di berbagai benchmark

Meninggalkan Arsitektur Hybrid Reasoning

Salah satu keputusan teknis paling signifikan dalam rilis ini adalah langkah Qwen untuk meninggalkan model hybrid reasoning. Tim ini pada dasarnya telah membuktikan bahwa pendekatan hybrid reasoning tidak bekerja seefektif yang diharapkan awalnya dan sebenarnya dapat membuat performa menjadi lebih buruk. Sebagai gantinya, mereka fokus pada pembuatan model terpisah yang dioptimalkan untuk mengikuti instruksi standar atau tugas reasoning khusus.

Perubahan arsitektur ini telah menghasilkan peningkatan performa yang substansial. Komunitas mencatat bahwa pendekatan non-hybrid menghadirkan hasil yang lebih baik sambil lebih efisien dalam hal sumber daya komputasi dan generasi respons.

Kemampuan Tool Usage yang Kuat

Model ini unggul dalam penggunaan tools, melanjutkan reputasi Qwen dalam membangun sistem AI yang dapat berinteraksi secara efektif dengan tools dan API eksternal. Kemampuan ini membuatnya sangat berharga bagi developer yang ingin membangun aplikasi AI yang perlu mengakses database, API, atau sumber daya eksternal lainnya.

Semua model Qwen bagus dalam menggunakan tools, bahkan yang 4B yang lebih kecil.

Kombinasi kemampuan tool usage yang kuat dengan kemampuan untuk berjalan secara lokal membuat model ini menarik untuk aplikasi di mana privasi data dan operasi offline merupakan pertimbangan penting.

Pengaturan Konfigurasi yang Direkomendasikan:

  • Temperature: 0.7
  • TopP: 0.8
  • TopK: 20
  • MinP: 0
  • Panjang output: 16,384 token
  • Presence penalty: 0-2 (untuk mengurangi pengulangan)

Kecepatan Pengembangan yang Cepat Menarik Perhatian

Jadwal rilis telah luar biasa, dengan lima model besar dirilis dalam waktu lebih dari seminggu. Ini termasuk model mulai dari 30B hingga 480B parameter, mencakup baik mengikuti instruksi umum maupun tugas coding khusus. Kecepatan yang cepat ini menunjukkan kompetisi yang intens di ruang AI dan komitmen Qwen untuk mempertahankan kepemimpinan teknologi.

Model ini sudah tersedia melalui berbagai saluran, termasuk Ollama untuk deployment lokal yang mudah, membuatnya dapat diakses oleh developer yang ingin bereksperimen dengan kemampuan AI canggih tanpa bergantung pada layanan cloud.

Rilis ini menunjukkan seberapa cepat lanskap AI berkembang, dengan model powerful yang dulunya memerlukan sumber daya komputasi besar kini menjadi tersedia untuk deployment lokal pada perangkat keras konsumen.

Referensi: Qwen3-30B-A3B-Instruct-2507