Peluncuran Sniffly, sebuah dashboard analitik baru untuk penggunaan Claude Code, telah memicu diskusi sengit tentang kualitas dan keseragaman kode yang dihasilkan AI. Meskipun tool ini menjanjikan untuk membantu developer melacak pola coding AI mereka dan biayanya, tool ini telah menjadi titik fokus untuk kekhawatiran yang lebih luas tentang kondisi pengembangan perangkat lunak modern.
Metrik Analitik Sniffly
- 1746 perintah digunakan
- 24.5% tingkat interupsi
- 6.91 penghentian per perintah
- 82% tingkat penggunaan tools
- $4,310.33 USD biaya proyek
- 1912.7M pembacaan prompt cache
Munculnya Vibe Coding dan Para Kritikusnya
Komunitas developer sedang bergulat dengan apa yang disebut sebagai vibe coding - praktik menggunakan AI untuk dengan cepat menghasilkan kode tanpa review menyeluruh. Kritikus berargumen bahwa pendekatan ini membanjiri internet dengan kode yang biasa-biasa saja dan seragam yang tidak memiliki kreativitas dan keahlian dari perangkat lunak yang ditulis manusia. Mereka menunjuk pada struktur kalimat yang identik dalam dokumentasi, penggunaan emoji yang berlebihan, dan kehamburan umum yang membuat proyek sulit dievaluasi pada pandangan pertama.
Kekhawatiran ini meluas melampaui estetika. Developer melaporkan bahwa proyek yang terlihat rapi dengan klaim yang meyakinkan sering kali menyembunyikan kode yang berfungsi buruk di bawahnya. Ini menciptakan tantangan baru: sinyal tradisional untuk menilai kualitas proyek tidak lagi bekerja dengan andal.
![]() |
---|
Diagram lingkaran ini menggambarkan distribusi berbagai jenis kesalahan pengkodean, menggarisbawahi tantangan-tantangan yang dihadapi dalam pengembangan perangkat lunak modern |
Membela Pengembangan Berbantuan AI
Pendukung tool coding AI berargumen bahwa teknologi ini mendemokratisasi pengembangan perangkat lunak, membuatnya lebih mudah bagi orang-orang untuk menyelesaikan masalah personal mereka dengan kode. Mereka berpendapat bahwa developer yang baik akan mempertahankan standar mereka terlepas dari tool yang mereka gunakan, sementara mereka yang menulis kode buruk akan terus melakukannya dengan atau tanpa bantuan AI.
Developer yang memiliki persyaratan ketat pada kode yang mereka 'hasilkan' akan membuat LLM sesuai dengan persyaratan mereka ketika diperlukan, dan developer yang 'ceroboh' akan terus menerbitkan kode spaghetti, terlepas dari keberadaan LLM.
Kuncinya, menurut para advokat, terletak pada implementasi yang tepat: menggunakan AI untuk tugas yang sesuai seperti komponen dengan dependensi rendah daripada infrastruktur inti, mempertahankan praktik pengujian yang ketat, dan memperlakukan kode yang dihasilkan AI sebagai titik awal daripada produk jadi.
Tantangan Scaling
Seiring kemampuan AI tumbuh secara eksponensial, beberapa pihak berargumen bahwa metode code review tradisional tidak akan mengikuti perkembangannya. Ini telah mengarah pada diskusi tentang pendekatan baru untuk validasi dan manajemen kode. Perusahaan seperti Anthropic telah mengembangkan framework untuk menggunakan AI dengan aman di lingkungan produksi, menekankan pentingnya bertindak sebagai product manager AI dan fokus pada hasil yang dapat diverifikasi.
Menemukan Keseimbangan dalam Lanskap Baru
Perdebatan ini mencerminkan ketegangan yang lebih luas dalam pengembangan perangkat lunak antara produktivitas dan kualitas. Sementara beberapa developer memilih untuk menjaga proyek eksperimental berbantuan AI mereka tetap privat untuk menghindari berkontribusi pada polusi kode, yang lain melihat nilai dalam berbagi draft kasar ide yang mungkin tidak akan ada sebaliknya karena keterbatasan waktu.
Komunitas tampaknya sedang menuju pada pendekatan yang bernuansa: mengakui bahwa proyek yang berbeda memiliki persyaratan kualitas yang berbeda, dan bahwa dokumentasi dan kode yang dihasilkan AI dapat berfungsi sebagai sinyal yang berguna untuk investigasi lebih dalam daripada penolakan langsung.
Referensi: Sniffly - Claude Code Analytics Dashboard