Seiring dengan semakin umumnya asisten coding AI dalam pengembangan perangkat lunak, para developer menemukan bahwa command line tools tradisional tidak dirancang dengan mempertimbangkan kecerdasan buatan. Ketidaksesuaian ini menyebabkan frustrasi dan inefisiensi, yang mengarah pada gerakan yang berkembang untuk menciptakan antarmuka yang dioptimalkan untuk AI.
Masalah ini berasal dari cara AI agents berinteraksi dengan tools yang sudah ada. Tidak seperti developer manusia yang belajar melalui pengalaman dan dapat beradaptasi dengan antarmuka yang aneh, AI agents sering kali bingung dengan pesan error yang tidak jelas, kehilangan jejak direktori mereka saat ini, dan membuang sumber daya komputasi pada perintah yang berulang.
Masalah Pemborosan Token
Salah satu masalah terbesar yang dihadapi developer adalah konsumsi token yang berlebihan. AI agents sering menggunakan perintah seperti head -n100
untuk membatasi output, tetapi pendekatan ini memiliki kelemahan serius. Ketika build gagal, agent harus menjalankan ulang seluruh proses untuk melihat pesan error tambahan, membuang waktu dan sumber daya komputasi. Lebih buruk lagi, agents tidak memiliki cara untuk mengetahui berapa banyak output yang tersisa, yang menyebabkan informasi tidak lengkap dan pengambilan keputusan yang buruk.
Anggota komunitas melaporkan bahwa sekitar sepertiga dari token coding AI mereka dihabiskan untuk parsing output command line - sebuah inefisiensi yang mengejutkan yang menyoroti kebutuhan akan tools yang lebih baik.
Masalah Utama dengan Tool CLI Saat Ini untuk AI Agent:
- Pemborosan token: ~33% token coding AI dihabiskan untuk parsing output CLI
- Kebingungan direktori: Agent kehilangan jejak direktori kerja saat ini
- Informasi tidak lengkap: Menggunakan
head -n100
memberikan output parsial tanpa konteks - Inefisiensi sumber daya: Harus menjalankan ulang perintah untuk mendapatkan pesan error tambahan
- Melewati hook: Agent mencoba melewati pemeriksaan kualitas dengan flag
--no-verify
Solusi Kreatif Bermunculan
Developer mengimplementasikan solusi pintar untuk membimbing asisten AI mereka. Beberapa telah membuat wrapper git khusus yang mencegah agents melewati pre-commit hooks dengan flag --no-verify
. Ketika agent mencoba melewati pemeriksaan kualitas, ia menerima pesan tegas yang menjelaskan bahwa semua kode harus lulus formatting, linting, dan tes sebelum di-commit.
Yang lain meningkatkan lingkungan shell dengan konteks yang membantu. Modifikasi sederhana pada command-not-found handler dapat memberi tahu agents direktori mereka saat ini ketika perintah gagal, mengurangi siklus frustrasi kebingungan direktori yang mengganggu banyak interaksi AI.
Solusi yang Diusulkan dan Solusi Alternatif:
- Wrapper git khusus yang mencegah melewati pre-commit hooks
- Handler command-not-found yang ditingkatkan untuk menampilkan direktori saat ini
- Sistem wrapper yang menyimpan output dalam cache dan menyediakan informasi terstruktur
- Tools MCP ( Model Context Protocol ) untuk integrasi AI yang lebih baik
- Framework context-engineering untuk kolaborasi manusia-AI
- Sistem saran direktori fuzzy untuk perintah yang gagal
Tantangan Arsitektur Informasi
Masalah inti bukan hanya tentang perintah individual - tetapi tentang arsitektur informasi. CLI tools tradisional dirancang untuk manusia yang dapat belajar, beradaptasi, dan mengingat konteks. AI agents membutuhkan antarmuka yang lebih terstruktur dan dapat diprediksi dengan panduan yang jelas tentang kapan menggunakan fungsi tertentu.
LLM dilatih menggunakan CLI tools yang sudah ada, jadi saya pikir kita perlu menambahkannya dengan konteks yang berguna untuk LLM dan mungkin mengadaptasi output agar lebih baik dikonsumsi oleh agents.
Beberapa developer membangun solusi komprehensif, menciptakan sistem wrapper tipis yang menghentikan proses yang berjalan lama untuk menanyakan AI agents apakah akan melanjutkan atau membatalkan. Sistem ini mengukur kompetensi model berdasarkan seberapa sedikit kode wrapper yang dibutuhkan - model yang lebih baik memerlukan lebih sedikit akomodasi.
Respons Industri dan Pandangan Masa Depan
Komunitas pengembangan terbagi dalam pendekatan ini. Beberapa berpendapat bahwa dunia tidak seharusnya bersusah payah mengakomodasi tools AI yang tidak sempurna, menyarankan bahwa language models harus beradaptasi dengan antarmuka yang ada daripada sebaliknya. Yang lain melihat ini sebagai evolusi alami, membandingkannya dengan bagaimana IDE berkembang untuk melayani developer manusia dengan lebih baik.
Beberapa proyek open-source bermunculan untuk mengatasi tantangan ini, termasuk tools MCP ( Model Context Protocol ) khusus dan framework context-engineering yang membantu developer berkolaborasi lebih efektif dengan AI agents.
Proyek Open Source yang Disebutkan:
- NAISYS: Driver command line untuk LLM dengan trik adaptasi CLI
- wezterm-mcp: Akses terminal untuk agen AI dengan dukungan TUI
- just-mcp: Interface MCP untuk integrasi task runner Justfile
- context-llamur: Tool context-engineering untuk kolaborasi LLM
- am-i-vibing: Library untuk mendeteksi apakah tools berjalan di lingkungan AI
Kesimpulan
Meskipun beberapa developer tetap skeptis tentang mendesain ulang tools untuk konsumsi AI, manfaat praktisnya menjadi jelas. Banyak perubahan yang diusulkan - seperti pesan error yang lebih jelas dan informasi kontekstual yang lebih baik - juga akan menguntungkan pengguna manusia. Seiring AI coding assistants menjadi lebih canggih dan diadopsi secara luas, tekanan untuk menciptakan antarmuka yang ramah AI kemungkinan akan terus tumbuh, berpotensi membentuk kembali cara kita merancang developer tools untuk generasi berikutnya kolaborasi manusia-AI.
Referensi: Rethinking CLI interfaces for AI