Cerebras Systems baru-baru ini menutup putaran pendanaan Series G senilai 1,1 miliar dolar AS, mencapai valuasi 8,1 miliar dolar AS. Meskipun perusahaan mempromosikan wafer-scale engine mereka sebagai solusi inferensi AI tercepat yang tersedia, komunitas teknologi mempertanyakan apakah ekonominya benar-benar membenarkan valuasi yang sangat besar tersebut.
Detail Pendanaan Cerebras:
- Pendanaan Series G: $1,1 miliar USD
- Valuasi post-money: $8,1 miliar USD
- Investor utama: Fidelity Management & Research Company , Atreides Management
- Partisipan lainnya: Tiger Global , Valor Equity Partners , 1789 Capital
Perdebatan Didominasi oleh Trade-off Kecepatan vs Biaya
Kekhawatiran utama komunitas berpusat pada pendekatan Cerebras yang menggunakan memori SRAM untuk mencapai kecepatan inferensi yang sangat cepat. Pengguna melaporkan mengalami waktu respons yang jauh lebih cepat dibandingkan dengan solusi berbasis GPU tradisional, dengan beberapa merasa kecepatannya begitu menarik sehingga mereka lebih memilihnya bahkan ketika memerlukan beberapa iterasi untuk menyelesaikan tugas. Namun, performa ini datang dengan harga yang sangat mahal. Pengamat industri memperkirakan bahwa menjalankan model besar seperti Qwen 3 pada ukuran konteks maksimum dapat memerlukan chip Cerebras senilai lebih dari 100 juta dolar AS, dibandingkan dengan hanya 1 juta dolar AS untuk perangkat keras Nvidia Blackwell yang setara, meskipun dengan kecepatan yang lebih lambat.
SRAM (Static Random Access Memory) lebih cepat tetapi lebih mahal daripada jenis memori lainnya, sementara ukuran konteks mengacu pada seberapa banyak teks yang dapat diproses oleh model AI sekaligus.
Perbandingan Performa:
- Kecepatan inferensi Cerebras : 20x lebih cepat dibandingkan GPU Nvidia
- Wafer Scale Engine 3 ( WSE-3 ): 56x lebih besar dari GPU terbesar
- Estimasi biaya chip: $2-3 juta USD per chip Cerebras
- Perbandingan biaya: $100M+ untuk Cerebras vs $1M untuk Nvidia Blackwell (beban kerja yang sama)
Tantangan Skalabilitas Menimbulkan Pertanyaan Viabilitas Jangka Panjang
Para ahli teknis dalam komunitas menunjuk pada keterbatasan fundamental dalam pendekatan skala wafer Cerebras . Teknologi SRAM sebagian besar telah berhenti berkembang dengan proses manufaktur yang lebih baru, berpotensi membatasi peningkatan performa di masa depan. Selain itu, chip tersebut awalnya dirancang sebelum ledakan model bahasa besar, membuatnya kurang cocok untuk melatih sistem AI masif saat ini. Arsitektur ini bekerja dengan baik untuk inferensi ketika seluruh model muat di dalam chip, tetapi menjadi kurang menguntungkan ketika akses memori eksternal diperlukan untuk model yang lebih besar.
Integrasi skala wafer berarti membangun prosesor di seluruh wafer silikon daripada memotongnya menjadi chip individual yang lebih kecil.
Posisi Pasar dan Pengalaman Pelanggan Beragam
Meskipun ada kekhawatiran teknis, Cerebras telah menarik pelanggan terkemuka termasuk AWS , Meta , dan berbagai lembaga pemerintah. Perusahaan melayani triliunan token setiap bulan dan menempati peringkat sebagai penyedia inferensi teratas di Hugging Face dengan lebih dari 5 juta permintaan bulanan. Namun, pengalaman pelanggan sangat bervariasi. Sementara beberapa pengguna memuji kecepatan yang luar biasa untuk tugas-tugas sederhana, yang lain melaporkan masalah keandalan, waktu respons layanan pelanggan yang buruk, dan masalah dengan tugas coding yang lebih kompleks.
Sejak didirikan, kami telah menguji setiap penyedia inferensi AI di ratusan model. Cerebras secara konsisten yang tercepat.
Strategi harga perusahaan juga mendapat kritik, dengan komitmen bulanan minimum berkisar dari 1.500 hingga 10.000 dolar AS ditambah biaya penggunaan, berpotensi membatasi adopsi di antara pengembang dan perusahaan yang lebih kecil.
Struktur Harga:
- Paket individual: $50/bulan dengan batasan token harian
- Paket tim kecil: $1.500/bulan minimum
- Enterprise: Harga khusus (perlu menghubungi)
- Komitmen bulanan minimum: $1.500-$10.000 USD ditambah penggunaan
Prospek Masa Depan Masih Tidak Pasti
Perdebatan komunitas mencerminkan pertanyaan yang lebih luas tentang pendekatan perangkat keras AI khusus. Sementara Cerebras telah mengukir ceruk dalam inferensi ultra-cepat, pesaing seperti Nvidia terus maju dengan solusi yang lebih serbaguna yang menyeimbangkan performa, biaya, dan skalabilitas. Keberhasilan model bisnis Cerebras kemungkinan akan bergantung pada apakah cukup banyak pelanggan yang menghargai kecepatan daripada efektivitas biaya, dan apakah perusahaan dapat mengembangkan teknologinya untuk mengatasi masalah skalabilitas seiring dengan terus bertumbuhnya ukuran dan kompleksitas model AI.
Referensi: Cerebras Systems Raises $1.1 Billion Series G at $8.1 Billion Valuation