Sistem Memori C.O.R.E. Memicu Perdebatan Antara Knowledge Graph vs File Teks Sederhana untuk Konteks AI

Tim Komunitas BigGo
Sistem Memori C.O.R.E. Memicu Perdebatan Antara Knowledge Graph vs File Teks Sederhana untuk Konteks AI

Peluncuran C.O.R.E. ( Contextual Observation & Recall Engine ), sebuah sistem memori baru untuk model bahasa besar, telah memicu diskusi sengit di komunitas developer tentang pendekatan terbaik untuk manajemen memori AI. Sistem ini menjanjikan untuk memberikan pengguna kepemilikan penuh atas memori AI mereka sambil memungkinkan berbagi yang mulus di berbagai alat AI seperti Claude dan Cursor.

Opsi Pengaturan C.O.R.E.:

  • Pengaturan Cloud: Daftar ke Core Cloud , tambahkan teks ke grafik memori, hubungkan melalui MCP ke alat seperti Cursor
  • Pengaturan Lokal: Memerlukan Docker dan OpenAI API Key , berjalan di localhost:3000 dengan autentikasi magic link
  • Integrasi API: Endpoint POST untuk /ingest dan /search dengan autentikasi Bearer token

Perpecahan Knowledge Graph vs File Teks

Perdebatan paling sengit berpusat pada apakah pendekatan knowledge graph yang kompleks dari C.O.R.E. menawarkan keunggulan nyata dibandingkan solusi yang lebih sederhana. Para kritikus berargumen bahwa file teks dasar dengan version control mungkin sama efektifnya untuk sebagian besar kasus penggunaan. Seorang developer mencatat bahwa mereka telah menemukan kesuksesan menggunakan Markdown + Git + tooling UNIX biasa setelah mencoba pendekatan yang lebih kompleks.

Namun, para pencipta C.O.R.E. membela desain temporal knowledge graph mereka, menjelaskan bahwa sistem ini unggul dalam skenario di mana informasi berkembang dari waktu ke waktu. Mereka menunjuk pada kasus penggunaan seperti melacak percakapan medis di berbagai platform AI, di mana pengguna perlu memahami tidak hanya fakta saat ini tetapi juga bagaimana dan kapan informasi berubah.

Perbandingan Arsitektur Memori:

  • Sistem Tradisional: "Catatan tempel" statis yang hanya menampilkan kondisi saat ini
  • C.O.R.E. : Graf pengetahuan temporal dengan riwayat pernyataan lengkap
  • Setiap Pernyataan Mencakup: Apa yang dikatakan, siapa yang mengatakannya, kapan hal itu terjadi, mengapa hal itu penting
  • Keunggulan Utama: Kemampuan pelacakan penuh dan jejak audit untuk evolusi fakta dari waktu ke waktu

Tantangan Membuat AI Benar-Benar Menggunakan Memori

Sebuah hambatan teknis yang signifikan muncul dalam diskusi: membuat sistem AI memanggil alat memori pada momen yang tepat. Beberapa developer berbagi frustrasi tentang mengimplementasikan sistem memori yang bekerja secara teknis tetapi gagal karena AI tidak tahu kapan harus mengaksesnya.

Salah satu tantangan yang saya hadapi dengan server memori MCP lainnya adalah membuat klien LLM benar-benar menggunakannya untuk mengingat informasi yang relevan ketika mereka membutuhkannya. Mengimplementasikan ke alat MCP adalah satu hal, membuat klien LLM memanggilnya pada waktu yang tepat adalah hal lain.

Tim C.O.R.E. mengatasi ini dengan mengembangkan teknik prompt engineering spesifik dan instruksi sistem yang memandu asisten AI tentang kapan dan bagaimana menggunakan memori secara efektif.

Kekhawatiran Ketergantungan Lokal vs Cloud

Anggota komunitas mengangkat kekhawatiran tentang ketergantungan C.O.R.E. saat ini pada API OpenAI, bahkan dalam pengaturan lokalnya. Ketergantungan ini tampaknya bertentangan dengan janji sistem tentang kepemilikan pengguna dan portabilitas. Para developer mengakui keterbatasan ini, menjelaskan bahwa mereka awalnya membangun sistem untuk proyek asisten AI mereka sendiri dan sedang bekerja untuk mendukung model lokal seperti Llama, meskipun mereka mengakui hasil saat ini tidak optimal.

Koneksi Semantic Web

Diskusi mengambil arah historis yang menarik ketika developer mencatat kesamaan dengan gerakan semantic web dari beberapa dekade yang lalu. Ironinya tidak luput dari peserta bahwa setelah bertahun-tahun LLM menyediakan pengetahuan umum tanpa memori, komunitas kembali ke knowledge graph terstruktur sebagai solusi.

Kesimpulan

Meskipun C.O.R.E. mewakili upaya ambisius untuk memecahkan tantangan memori AI, komunitas tetap terbagi tentang apakah kompleksitasnya dapat dibenarkan. Perdebatan ini menyoroti ketegangan fundamental dalam pengembangan AI: menyeimbangkan kemampuan canggih dengan kesederhanaan praktis. Saat lebih banyak developer bereksperimen dengan pendekatan memori yang berbeda, solusi yang paling efektif kemungkinan akan muncul dari penggunaan dunia nyata daripada keunggulan teoretis.

Referensi: C.O.R.E.