Sebuah model AI baru bernama SpikingBrain-7B telah memicu perdebatan sengit di komunitas teknologi, dengan para peneliti mengklaim bahwa model ini menggunakan desain terinspirasi otak sementara kritikus menganggapnya sebagai marketing pintar yang membungkus teknik-teknik standar.
Model yang dikembangkan oleh peneliti Tiongkok ini menjanjikan efisiensi jaringan saraf biologis melalui apa yang mereka sebut komputasi spiking. Tim tersebut mengklaim pendekatan mereka mencapai percepatan lebih dari 100x dalam time-to-first-token untuk sekuens yang sangat panjang dan memberikan sparsity 69% di tingkat mikro. Namun, kenyataannya tampak jauh lebih biasa daripada yang disarankan oleh branding biologis tersebut.
Klaim Performa Utama:
- Peningkatan kecepatan lebih dari 100x dalam TTFT ( Time-To-First-Token ) untuk sekuens 4 juta token
- Sparsitas 69% di tingkat mikro melalui komputasi spiking
- Sparsitas tambahan di tingkat makro melalui arsitektur MoE ( Mixture of Experts )
- Pelatihan berkelanjutan dengan kurang dari 2% dari data pelatihan biasa
![]() |
|---|
| Repositori GitHub untuk proyek SpikingBrain-7B , menampilkan pengembangannya dalam komunitas teknologi |
Realitas Pseudo-Spiking
Kritik paling signifikan berpusat pada apa yang para peneliti sendiri akui sebagai pseudo-spiking. Alih-alih komputasi seperti otak yang sesungguhnya dengan pemrosesan asinkron dan event-driven, SpikingBrain-7B hanya mengonversi aktivasi menjadi bilangan bulat dan memprosesnya pada GPU standar. Pendekatan ini hampir tidak menyerupai cara neuron sebenarnya berkomunikasi melalui spike listrik.
Bagi saya ini terdengar seperti perkalian matriks sparse yang dikemas ulang sebagai 'komputasi spiking event-driven', di mana spike-nya hanyalah elemen non-zero yang selalu dirancang untuk diproses oleh kernel GPU sparse.
Teknik ini tampak sangat mirip dengan metode kuantisasi yang sudah ada yang digunakan dalam optimasi AI, menimbulkan pertanyaan apakah label neuromorphic menambah nilai nyata selain daya tarik marketing.
Performa Tidak Memenuhi Klaim
Dalam hal performa aktual, SpikingBrain-7B kesulitan membuktikan janji-janji besarnya. Dalam tes benchmark, model ini secara konsisten berkinerja di bawah alternatif yang sudah mapan seperti Qwen2.5 , meskipun dibandingkan dengan model yang berusia 9-13 bulan. Para peneliti mengakui kesenjangan ini, terutama mencatat bahwa model pesaing yang dilatih pada data Tiongkok terbatas menunjukkan kerugian yang jelas pada benchmark bahasa Tiongkok.
Arsitektur model ini menggabungkan mekanisme linear attention, lapisan mixture-of-experts ( MoE ), dan spike encoding yang kontroversial. Sementara dua yang pertama adalah teknik yang sudah mapan dalam AI modern, komponen spike encoding tampaknya menawarkan sedikit manfaat praktis dalam implementasi saat ini.
Komponen Arsitektur Teknis:
- Mekanisme perhatian hibrida yang efisien
- Modul MoE (Mixture of Experts) untuk pemrosesan khusus
- Pengkodean spike untuk representasi aktivasi
- Pipeline konversi universal untuk kompatibilitas model open-source
- Dukungan plugin vLLM untuk optimisasi inferensi
Masalah Marketing Neuromorphic yang Lebih Luas
SpikingBrain-7B mewakili tren yang lebih besar dalam penelitian AI di mana teknik-teknik yang sudah mapan diberi label ulang dengan terminologi biologis. Bidang komputasi neuromorphic telah menghadapi kritik selama puluhan tahun karena menjanjikan kemajuan revolusioner sambil memberikan perbaikan inkremental paling banter.
Diskrepansi menjadi jelas ketika memeriksa detail teknis. Para peneliti mengklaim desain mereka mencerminkan prinsip-prinsip yang diamati di otak biologis, tetapi penjelasan mereka tetap samar. Linear attention konon meniru dinamika dendritik dengan morfologi multi-cabang, sementara lapisan MoE mewakili spesialisasi modular - deskripsi yang terdengar mengesankan tetapi kurang dasar biologis yang konkret.
Titik Terang: Hardware Non-NVIDIA
Satu aspek yang benar-benar menarik dari proyek ini melibatkan adaptasinya untuk GPU MetaX , alternatif Tiongkok untuk hardware NVIDIA . Karena pembatasan perdagangan terus berdampak pada industri semikonduktor global, mengembangkan sistem AI yang bekerja efisien pada platform non- NVIDIA bisa terbukti berharga untuk ekosistem teknologi Tiongkok.
Para peneliti telah membuat plugin untuk framework inferensi vLLM dan mengadaptasi berbagai strategi pemrosesan paralel untuk chip alternatif ini. Meskipun pekerjaan ini mungkin tidak merevolusi arsitektur AI, ini menunjukkan keterampilan rekayasa praktis dalam adaptasi hardware.
Varian Model SpikingBrain-7B:
- Model pra-terlatih (7B): Versi dasar untuk penggunaan umum
- Model chat (7B-SFT): Disetel halus untuk aplikasi percakapan
- Bobot terkuantisasi (7B-WBASpike): Versi presisi tereduksi untuk efisiensi
- Semua model dihosting di platform ModelScope
Kesimpulan
SpikingBrain-7B menyoroti ketegangan yang berkelanjutan antara inovasi marketing dan substansi teknis dalam penelitian AI. Sementara branding biologis menghasilkan perhatian dan berpotensi pendanaan, teknologi yang mendasarinya tampak sebagai kombinasi langsung dari teknik-teknik yang sudah ada dengan perbaikan performa yang sederhana.
Kontribusi nyata proyek ini mungkin terletak bukan pada arsitektur terinspirasi otaknya, tetapi pada pekerjaan praktisnya dalam mengadaptasi sistem AI untuk platform hardware alternatif. Karena lanskap teknologi global terus terfragmentasi, upaya rekayasa semacam itu bisa terbukti lebih berharga daripada yang disarankan marketing neuromorphic.
Untuk saat ini, pengguna yang mencari performa model bahasa terdepan akan lebih baik dilayani oleh alternatif yang sudah mapan yang fokus pada hasil daripada metafora biologis.
Referensi: SpikingBrain: Spiking Brain-inspired Large Models

