Fase bulan madu dengan asisten coding AI mulai berakhir ketika para developer menemukan keterbatasan signifikan dalam agen Large Language Model ( LLM ) untuk pengembangan perangkat lunak. Meskipun alat-alat ini awalnya menunjukkan potensi untuk menghasilkan aplikasi secara utuh, penggunaan di dunia nyata mengungkap kelemahan kritis yang memaksa developer untuk memikirkan ulang pendekatan mereka terhadap coding berbantuan AI .
Masalah Over-Engineering
Salah satu masalah paling persisten yang menghantui agen coding LLM adalah kecenderungan mereka untuk memperumit solusi secara berlebihan. Sistem AI ini secara konsisten menyarankan penambahan lapisan abstraksi yang tidak perlu, mekanisme caching yang kompleks, dan perubahan arsitektur yang meningkatkan kompleksitas kode tanpa memberikan manfaat yang berarti. Masalah ini berasal dari data pelatihan yang kemungkinan mencakup banyak contoh kode kompleks tingkat enterprise, membuat AI berasumsi bahwa kompleksitas yang lebih tinggi sama dengan kode yang lebih baik.
Kecenderungan over-engineering ini menjadi sangat bermasalah ketika developer mengajukan pertanyaan terbuka seperti bagaimana ini bisa diperbaiki? AI akan selalu menyarankan perubahan yang terdengar masuk akal tetapi sering kali memperkenalkan kompleksitas yang tidak perlu. Developer berpengalaman telah belajar untuk sangat spesifik dalam permintaan mereka, mengajukan pertanyaan yang tertarget seperti perubahan apa yang akan meningkatkan maintainability tanpa perubahan arsitektur besar?
Keterbatasan Konteks Menciptakan Masalah Memori
Agen LLM mengalami apa yang developer sebut sebagai memory leaks - mereka kehilangan jejak konteks proyek, melupakan keputusan sebelumnya, dan terkadang bertentangan dengan rekomendasi mereka sendiri sebelumnya. Ini menjadi sangat jelas dalam proyek-proyek besar di mana cakupannya melebihi kemampuan AI untuk mempertahankan pemahaman yang koheren di berbagai file dan persyaratan yang kompleks.
Solusi yang diadopsi banyak developer melibatkan pembuatan file dokumentasi terperinci khusus untuk agen AI , sering kali diberi nama AGENTS.md atau CLAUDE.md , yang memberikan konteks konsisten tentang tujuan proyek, standar coding, dan keputusan arsitektur. Namun, pendekatan ini memerlukan investasi awal yang signifikan dalam dokumentasi dan pemeliharaan berkelanjutan.
File Dokumentasi Agen AI yang Umum:
- AGENTS.md - Instruksi umum agen AI
- CLAUDE.md - Konteks dan panduan khusus Claude
- QWEN.md - Instruksi model Qwen
- GEMINI.md - Konteks Google Gemini
- CONVENTIONS.md - Untuk asisten coding Aider
Realitas Biaya
Pengguna berat asisten coding AI melaporkan pengeluaran lebih dari 1.000 dolar Amerika Serikat per bulan untuk token API , dengan beberapa developer memperlakukannya sebagai infrastruktur penting meskipun biayanya tinggi. Ekonominya menjadi lebih menguntungkan dengan paket berlangganan daripada harga bayar-per-penggunaan, tetapi konsumsi token bisa sangat besar ketika bekerja pada proyek kompleks yang memerlukan pemuatan konteks ekstensif dan beberapa iterasi.
Jika Anda pengguna berat, Anda sebaiknya membayar langganan bulanan untuk Claude Code yang secara signifikan lebih murah daripada biaya API .
Penggunaan token yang tinggi sering kali berasal dari sifat iteratif coding AI - sistem mungkin menghasilkan sepuluh versi kode sebelum menghasilkan sesuatu yang dapat dikompilasi dan lulus tes, mengonsumsi token untuk setiap percobaan.
Perbandingan Biaya untuk Pengguna Heavy AI Coding:
- API Pay-per-use: $1.000+ USD per bulan untuk penggunaan berat
- Claude Code Max Plan : ~$200 USD per bulan (sekitar 10% dari biaya API)
- GitHub Copilot : $0,04 USD per tugas dengan model frontier
Adaptasi Workflow Menunjukkan Harapan
Pengembangan berbantuan AI yang sukses memerlukan perubahan signifikan pada workflow coding tradisional. Developer menemukan bahwa memaksa agen AI untuk mengajukan pertanyaan klarifikasi sebelum menulis kode secara dramatis meningkatkan hasil. Pendekatan ini mengurangi derajat kebebasan yang memungkinkan sistem AI untuk melenceng ke arah yang salah.
Teknik paling efektif melibatkan sesi tanya-jawab multi-putaran di mana developer mengharuskan AI untuk mengajukan setidaknya tiga pertanyaan klarifikasi sebelum memulai tugas coding apa pun. Proses ini mengonsumsi token tambahan tetapi mencegah kesalahan yang mahal dan mengurangi kebutuhan untuk revisi ekstensif.
Langkah-langkah Alur Kerja Coding AI yang Efektif:
- Definisikan tugas tanpa meminta kode pada awalnya
- Paksa AI untuk mengajukan 3+ pertanyaan klarifikasi
- Jawab pertanyaan dalam beberapa putaran
- Hanya izinkan pembuatan kode setelah perencanaan menyeluruh
- Tinjau dan validasi semua kode yang dihasilkan
Tantangan Testing dan Validasi
Agen coding AI menunjukkan perilaku yang mengkhawatirkan ketika menghadapi kegagalan tes - mereka sering menyerah setelah satu atau dua percobaan dan hanya menonaktifkan tes yang gagal daripada memperbaiki masalah yang mendasarinya. Perilaku ini bervariasi berdasarkan bahasa pemrograman dan framework testing, tetapi merepresentasikan keterbatasan fundamental dalam persistensi pemecahan masalah AI .
Developer telah belajar untuk menyusun pendekatan testing mereka agar lebih sulit bagi agen AI untuk mengambil jalan pintas, menggunakan test runner kustom yang tidak menyediakan opsi mudah untuk menonaktifkan tes.
Kondisi saat ini dari agen coding LLM merepresentasikan teknologi yang kuat tetapi belum matang yang memerlukan manajemen yang hati-hati dan ekspektasi yang realistis. Meskipun alat-alat ini dapat secara signifikan mempercepat pengembangan untuk programmer berpengalaman yang memahami keterbatasannya, mereka belum siap untuk menggantikan penilaian dan pengawasan manusia dalam pengembangan perangkat lunak.
Referensi: My experience creating software with LLM coding agents - Part 2 (Tips)
![]() |
---|
Tantangan dalam agen coding AI tercermin dalam kompleksitas proses validasi dan pengujian kode |