DeepSeek Meluncurkan Model AI V3.1 dengan Arsitektur Penalaran Hibrida dan Kenaikan Harga

Tim Editorial BigGo
DeepSeek Meluncurkan Model AI V3.1 dengan Arsitektur Penalaran Hibrida dan Kenaikan Harga

Perusahaan riset AI China DeepSeek secara resmi telah mengungkap model open-source terbarunya, DeepSeek-V3.1 , menandai kemajuan signifikan dalam kemampuan kecerdasan buatan sambil secara bersamaan mengumumkan kenaikan harga substansial untuk layanan API-nya. Peluncuran ini merepresentasikan lebih dari sekadar peningkatan parameter dari 671 miliar menjadi 685 miliar parameter—ini memperkenalkan arsitektur penalaran hibrida yang revolusioner yang dapat mengubah cara sistem AI berinteraksi dengan pengguna dan menangani tugas-tugas kompleks.

Arsitektur Penalaran Hibrida yang Revolusioner

DeepSeek-V3.1 memperkenalkan arsitektur penalaran hibrida pertama di industri yang memungkinkan satu model untuk beralih secara mulus antara mode berpikir ( deepseek-reasoner ) dan mode non-berpikir ( deepseek-chat ). Pengguna dapat beralih antara mode-mode ini melalui aplikasi resmi atau antarmuka web menggunakan tombol deep thinking. Mode non-berpikir menargetkan pertanyaan sederhana seperti cuaca atau pertanyaan ensiklopedia, memberikan hasil yang efisien dengan waktu respons 20% lebih cepat. Sementara itu, mode berpikir menangani masalah kompleks seperti pembuktian matematika dan debugging kode dengan mengaktifkan rantai penalaran dalam yang mendalam, menghasilkan logika yang lebih ketat dengan biaya respons yang sedikit lebih lambat.

Peningkatan Efisiensi Melalui Kompresi Chain-of-Thought

Model baru ini menunjukkan peningkatan efisiensi yang luar biasa melalui pelatihan kompresi chain-of-thought yang canggih. DeepSeek-V3.1 mempertahankan tingkat kinerja yang sebanding dengan pendahulunya R1-0528 sambil mengurangi generasi token output sebesar 20-50%. Tugas-tugas yang sebelumnya memerlukan 1000 token kini dapat diselesaikan dengan hanya 500 token sambil mempertahankan kualitas output yang setara. Peningkatan efisiensi ini diterjemahkan menjadi biaya komputasi yang secara signifikan lebih rendah dan latensi respons yang berkurang, membuat teknologi ini lebih mudah diakses untuk penerapan yang luas.

Tolok Ukur Performa

Tes Skor DeepSeek-V3.1 Skor Model Sebelumnya
AIME 2015 Mathematics 87.5/100 88.4/100
GPQA Science 81/100 80.1/100
liveCodeBench 73.3/100 74.8/100
Pengurangan Token 20-50% lebih sedikit Baseline

Spesifikasi Teknis dan Benchmark Kinerja

Dibangun pada arsitektur Mixture-of-Experts (MoE), DeepSeek-V3.1 dengan 685 miliar parameter hanya mengaktifkan 37 miliar parameter per token, mencapai keseimbangan optimal antara efisiensi dan kinerja. Model ini mendukung berbagai format tensor termasuk BF16, FP8 (F8_E4M3), dan F32, memberikan fleksibilitas optimisasi perangkat keras kepada pengembang. Model dasar menjalani pelatihan tambahan dengan 840 miliar token di luar fondasi V3, memperluas kemampuan pemrosesan konteks panjangnya hingga 128K token—setara dengan sekitar 130.000 karakter China atau 80 bab pertama Dream of the Red Chamber.

Perbandingan Spesifikasi Model

Fitur DeepSeek-V3 DeepSeek-V3.1
Total Parameter 671 miliar 685 miliar
Parameter Aktif per Token 37 miliar 37 miliar
Jendela Konteks 128K token 128K token
Pelatihan Tambahan - 840B token
Standar Presisi Standard FP8 UE8M0 FP8
Arsitektur MoE Hybrid MoE

Adopsi Strategis Standar UE8M0 FP8

Mungkin yang paling signifikan untuk lanskap AI global, DeepSeek-V3.1 mengadopsi standar presisi UE8M0 FP8 yang secara khusus dirancang untuk chip domestik China generasi berikutnya. Keputusan teknis ini merepresentasikan pergeseran strategis dari standar FP8 E4M3/E5M2 NVIDIA , berpotensi menciptakan dua jalur ekosistem AI yang berbeda. Format UE8M0 memprioritaskan konsumsi daya yang lebih rendah dan komputasi yang lebih cepat daripada presisi yang lebih tinggi yang ditawarkan oleh standar NVIDIA , membuatnya lebih cocok untuk arsitektur chip domestik dengan filosofi desain yang berbeda.

Penyesuaian Harga API yang Substansial

Bersamaan dengan pengumuman teknis, DeepSeek mengungkapkan perubahan harga yang signifikan yang berlaku efektif 6 September. Harga input untuk cache miss akan meningkat dari yuan China ¥2 menjadi ¥4 per juta token, sementara harga output naik dari ¥8 menjadi ¥12 per juta token. Perusahaan juga menghilangkan diskon harga malam hari. Penyesuaian ini mencerminkan investasi penelitian dan pengembangan yang substansial yang diperlukan untuk peningkatan V3.1, termasuk pelatihan 840 miliar token tambahan dan adaptasi presisi UE8M0 FP8 untuk kompatibilitas chip domestik.

Perubahan Harga API (Berlaku 6 September 2025)

Jenis Layanan Harga Sebelumnya Harga Baru Perubahan
Input (cache miss) ¥2/juta token ¥4/juta token +100%
Input (cache hit) ¥0,5/juta token ¥0,5/juta token Tidak ada perubahan
Output ¥8/juta token ¥12/juta token +50%
Diskon Malam Hari Tersedia Dihapus Dihilangkan

Dampak Pasar dan Implikasi Industri

Peluncuran ini telah menghasilkan respons pasar yang signifikan, dengan saham-saham terkait AI mengalami kenaikan yang mencolok. Perusahaan seperti Cambricon , yang memproduksi chip AI yang kompatibel dengan teknologi DeepSeek , mengalami kenaikan intraday hampir 14%. Lisensi MIT open-source model dan optimisasi API diharapkan dapat mempercepat penerapan agen AI di sektor keuangan, medis, dan otomasi kantor. Analis industri memprediksi pasar agen AI dapat mencapai yuan China ¥852 miliar pada 2028, dengan tingkat pertumbuhan tahunan majemuk 72,7%.

Dampak Pasar Saham (Hari Pengumuman)

  • Cambricon (688256.SH): Keuntungan intraday +14%
  • Kunlun Wanwei (300418.SZ): Keuntungan +10%
  • Hanvon Ugee (300170.SZ): Perdagangan aktif dalam konsep agen AI
  • iFlytek (002230.SZ): Performa +35% year-to-date
  • Wondershare (300624.SZ): Keuntungan tahunan +80%, pertumbuhan laba +42%

Masa Depan Kompetisi Ekosistem AI

Pilihan strategis DeepSeek dengan V3.1 menandakan pergeseran yang lebih luas dalam lanskap AI global. Dengan mengadopsi standar teknis domestik dan menunjukkan bahwa kemampuan AI canggih tidak memerlukan sumber daya komputasi yang masif, perusahaan ini memposisikan dirinya sebagai pemimpin dalam jalur pengembangan kinerja tinggi yang ringan. Pendekatan ini memberikan peluang bagi pengembang kecil di seluruh dunia untuk berpartisipasi dalam inovasi AI sambil berpotensi menciptakan ekosistem AI paralel berdasarkan fondasi teknis yang berbeda dan pertimbangan geopolitik.