Kekhawatiran Privasi dan Pertanyaan Performa Muncul Seputar Layanan Berlangganan LLM Open-Source Seharga 20 Dolar AS yang Baru

Tim Komunitas BigGo
Kekhawatiran Privasi dan Pertanyaan Performa Muncul Seputar Layanan Berlangganan LLM Open-Source Seharga 20 Dolar AS yang Baru

Sebuah layanan berlangganan tarif tetap baru untuk model bahasa besar open-source telah diluncurkan, menjanjikan untuk membuat agen coding lebih terjangkau. Namun, pengguna awal mengajukan pertanyaan penting tentang kebijakan privasi dan praktik penanganan data yang harus dipertimbangkan oleh calon pengguna.

Layanan ini menawarkan akses ke model coding populer seperti GLM-4.5, Kimi K2, dan Qwen3 Coder seharga 20 dolar AS per bulan, memposisikan diri sebagai alternatif yang lebih terjangkau dari solusi yang ada. Namun ketika pengguna menggali lebih dalam ke detailnya, beberapa kekhawatiran telah muncul yang menyoroti masalah pertumbuhan dari penyedia layanan AI baru.

Perbandingan Harga

  • Layanan baru: $20 USD/bulan untuk 100 permintaan per 5 jam
  • Layanan baru premium: $60 USD/bulan untuk 1.000 permintaan per 5 jam
  • Claude Code : $20 USD/bulan (sekitar setengah dari batas tarif)
  • Claude Max : $200 USD/bulan (permintaan lebih sedikit dibanding tier $60 USD)

Kebijakan Privasi Menimbulkan Kekhawatiran

Pengguna yang memeriksa ketentuan privasi layanan telah mengidentifikasi bahasa yang bermasalah seputar hak penggunaan data. Kebijakan saat ini tampaknya memberikan hak luas untuk menggunakan informasi pribadi, yang bertentangan dengan ekspektasi untuk layanan yang berfokus pada privasi. Selain itu, penggunaan Google Tag Manager untuk pelacakan telah memicu kekhawatiran tentang potensi kebocoran data, terutama mengingat bahwa interaksi LLM sering mengandung kode dan prompt sensitif.

Seorang pengguna mencatat kontradiksi antara pemasaran kepada pelanggan yang sadar privasi sambil mempertahankan kebijakan yang tidak sejalan dengan nilai-nilai tersebut. Penyedia layanan telah mengakui kekhawatiran ini dan menunjukkan bahwa mereka sedang meninjau pendekatan privasi mereka, melihat perusahaan seperti Kagi sebagai contoh praktik privasi yang lebih baik.

Ketentuan Retensi dan Penggunaan Data Tidak Jelas

Ketentuan layanan mengandung bahasa yang membingungkan tentang retensi data dan hak penggunaan. Sementara satu bagian menyatakan bahwa permintaan API hanya dapat disimpan selama 14 hari dan digunakan semata-mata untuk debugging, bagian lain dari perjanjian menyebutkan hak lisensi yang lebih luas untuk perbaikan platform. Ambiguitas ini telah membuat pengguna tidak yakin tentang bagaimana data mereka akan benar-benar ditangani.

Perusahaan telah mengklarifikasi bahwa pembatasan debugging 14 hari menjadi prioritas, tetapi kehadiran bahasa yang bertentangan dalam dokumen hukum menunjukkan perlunya kebijakan privasi yang lebih jelas dan konsisten.

Pertanyaan Performa dan Implementasi Teknis

Selain kekhawatiran privasi, pengguna sedang mengevaluasi aspek teknis dari layanan. Benchmark performa menunjukkan hasil yang menjanjikan, dengan GLM-4.5 mencapai 150-200 token per detik dalam pengujian. Namun, pertanyaan tetap ada tentang tingkat kuantisasi model dan bagaimana layanan ini dibandingkan dengan pesaing seperti Cerebras dalam hal kecepatan dan kualitas.

Layanan ini mengklaim menawarkan implementasi yang lebih andal daripada beberapa pesaing, mengutip perbedaan performa yang signifikan dalam tugas agen coding. Mereka menguji model mereka terhadap agen coding mereka sendiri untuk memastikan fungsionalitas yang tepat, mengatasi masalah dengan implementasi model yang rusak atau dilobotomi yang ditemukan di tempat lain.

Tolok Ukur Performa

  • GLM-4.5 : 150-200 token per detik ( Bay Area, California )
  • Qwen3 Coder : Berjalan dalam kuantisasi FP8
  • Perbedaan 10 poin persentase dalam penyelesaian tugas coding antara API resmi dan beberapa implementasi OpenRouter

Penghitungan Permintaan dan Batas Tingkat

Pengguna yang bekerja dengan agen coding membutuhkan kejelasan tentang bagaimana permintaan dihitung terhadap batas berlangganan. Layanan ini menghitung permintaan API daripada panggilan alat individual, yang berarti bahwa batch panggilan alat paralel biasanya dihitung sebagai permintaan tunggal. Pendekatan ini bisa lebih menguntungkan bagi pengguna framework yang secara efisien melakukan batch operasi.

Struktur pembatasan tingkat menawarkan 100 permintaan per lima jam untuk tingkat dasar 20 dolar AS, yang diposisikan perusahaan sebagai kira-kira dua kali lipat batas tingkat layanan sebanding. Namun, implikasi dunia nyata sangat bergantung pada bagaimana framework coding individual menyusun panggilan API mereka.

Model yang Didukung

  • GLM-4.5: Hybrid reasoner, dibandingkan secara menguntungkan dengan Sonnet 4
  • Kimi K2: Model non-reasoning
  • Qwen3 Coder 480B: Pemecahan masalah coding sekali jalan
  • DeepSeek 3.1: Dioptimalkan untuk tugas coding agentic

Melihat ke Depan

Sementara layanan ini mengatasi kebutuhan nyata untuk akses terjangkau ke model coding open-source, umpan balik awal menyoroti pentingnya kebijakan privasi yang jelas dan praktik penanganan data yang transparan. Ketika layanan AI menjadi lebih umum, pengguna menjadi lebih canggih dalam mengevaluasi tidak hanya performa dan harga, tetapi juga kepercayaan penyedia layanan.

Kesediaan perusahaan untuk terlibat dengan umpan balik pengguna dan mengakui kekurangan adalah hal yang menggembirakan. Namun, calon pelanggan harus dengan hati-hati meninjau ketentuan saat ini dan mempertimbangkan apakah trade-off privasi sejalan dengan kebutuhan mereka, terutama ketika bekerja dengan kode sensitif atau informasi kepemilikan.

Referensi: A flat monthly subscription to open-source LLMs