Ollama telah meluncurkan API web search baru yang memungkinkan model AI mengakses informasi real-time dari internet. Meskipun fitur ini menjanjikan untuk mengurangi halusinasi dan meningkatkan akurasi untuk model AI lokal, hal ini telah memicu perdebatan signifikan di komunitas developer tentang privasi, retensi data, dan arah perkembangan perusahaan.
![]() |
---|
Llama-llama yang lucu mengeksplorasi tema investigasi, mencerminkan API baru Ollama untuk pencarian web dan akses informasi real-time |
Kesenjangan Kebijakan Privasi Menimbulkan Kekhawatiran
Peluncuran ini telah menarik kritik karena kurangnya dokumentasi privasi yang esensial. Anggota komunitas telah menunjukkan bahwa Ollama , yang berkantor pusat di California , mungkin tunduk pada California Consumer Privacy Act ( CCPA ) jika mereka memproses data untuk 50.000 atau lebih penduduk California . CCPA berlaku terlepas dari pendapatan, membuat kepatuhan menjadi krusial bagi perusahaan mana pun yang menangani data pribadi dalam skala besar.
Ketiadaan kebijakan privasi yang jelas telah menyebabkan spekulasi tentang penyedia pencarian mana yang digunakan Ollama di balik layar. Penyedia pencarian yang berbeda memiliki aturan yang bervariasi tentang penyimpanan data, hak publikasi ulang, dan pembatasan penggunaan. Tanpa transparansi tentang kemitraan ini, developer tetap tidak yakin tentang kewajiban hukum mereka saat menggunakan layanan tersebut.
Pivot Cloud Mempertanyakan Misi Local-First
Fitur web search memerlukan akun Ollama dan API key, menandai perubahan dari pendekatan local-first asli platform. Pergeseran ini telah membuat frustrasi pengguna yang awalnya memilih Ollama secara khusus untuk kemampuan offline dan independensi dari layanan cloud.
Saya tidak tahu bahwa mereka memiliki penawaran cloud sendiri, saya pikir tujuan utama Ollama adalah model lokal? Mengapa saya harus membayar 20 dolar AS per bulan untuk menggunakan model kecil yang inferior daripada menggunakan salah satu perusahaan AI biasa seperti OpenAI atau bahkan Mistral ?
Perusahaan membela pendekatan ini dengan mencatat bahwa beberapa model yang didukung terlalu besar untuk sebagian besar perangkat lokal. Mereka berargumen bahwa hosting cloud menyediakan akses ke model frontier yang tidak akan tersedia untuk developer individu. Namun, kritikus mempertanyakan mengapa pengguna akan memilih cloud Ollama dibandingkan penyedia yang sudah mapan seperti Google atau Anthropic untuk akses model komersial.
Harga dan Batasan API
- Tingkat gratis: Tersedia dengan batasan yang murah hati untuk individu
- Tingkat berbayar: $20 USD/bulan untuk batasan tingkat yang lebih tinggi melalui cloud Ollama
- Detail batasan tingkat: Tidak diungkapkan secara publik
Implementasi Teknis dan Alternatif
API web search terintegrasi dengan library Python dan JavaScript Ollama , mendukung panggilan REST API dan implementasi berbasis tool. Developer dapat membangun agen pencarian menggunakan model lokal seperti Qwen 2 dengan 16 miliar parameter, menggabungkan inferensi lokal dengan kemampuan pencarian berbasis cloud.
Bagi mereka yang lebih memilih solusi sepenuhnya lokal, anggota komunitas telah menyarankan alternatif seperti SearXNG , yang dapat di-host sendiri dan diintegrasikan dengan model AI tanpa memerlukan API key eksternal. Pendekatan ini mempertahankan filosofi local-first sambil tetap menyediakan kemampuan web search.
Solusi Lokal Alternatif
- SearXNG : Agregator mesin pencari yang di-host sendiri
- Brave API : Opsi integrasi langsung
- Tavily : 1.000 permintaan gratis per bulan
- AgenticSeek : Implementasi pencarian web sisi klien
![]() |
---|
Antarmuka alat Codex mendemonstrasikan bagaimana pengembang dapat berinteraksi dengan web search API Ollama, menampilkan kemungkinan integrasi teknis |
Klaim Retensi Data dan Kepemilikan
Perwakilan Ollama telah menyatakan bahwa mereka mempertahankan kebijakan zero data retention dan bahwa hasil pencarian milik pengguna. Mereka mengklaim pengguna bebas menyimpan dan mempublikasikan ulang hasil, hanya tunduk pada yurisdiksi hukum lokal. Namun, tanpa dokumentasi privasi yang detail atau transparansi tentang penyedia pencarian yang mendasari, jaminan ini tetap sulit untuk diverifikasi.
Strategi monetisasi perusahaan tampaknya berfokus pada penyediaan akses ke model yang lebih besar dan fitur tambahan melalui layanan cloud, sambil mempertahankan kemampuan inferensi lokal inti. Pendekatan hybrid ini bertujuan untuk melayani baik pengguna local-first maupun mereka yang memerlukan lebih banyak sumber daya komputasi daripada yang dapat disediakan hardware konsumen.
Pada UTC+0 2025-09-26T01:12:57Z, perdebatan berlanjut tentang apakah Ollama dapat berhasil menyeimbangkan akar open-source-nya dengan viabilitas komersial sambil mempertahankan kepercayaan pengguna dan standar privasi.
Referensi: Web search