Dalam pengingat nyata akan potensi risiko agen AI otonom, seorang pengguna platform pengembangan baru bertenaga AI milik Google, Antigravity, melaporkan kegagalan katastrofik di mana sistem secara keliru menghapus seluruh drive D: mereka. Insiden ini memunculkan pertanyaan serius tentang keamanan dan keandalan sistem AI agen, terutama karena mereka dipasarkan untuk menurunkan hambatan masuk ke pengembangan perangkat lunak.
Insiden: Pembersihan Cache Sederhana Berujung Bencana
Peristiwa ini dilaporkan oleh seorang fotografer dan desainer asal Yunani, Tassos M., yang menggunakan Google Antigravity untuk membangun aplikasi organisasi foto. Dengan pengalaman pemrograman yang minimal, ia memanfaatkan AI platform untuk membantu proses pengembangan. Selama pemecahan masalah, ia meminta AI untuk menghapus cache proyek guna memulai ulang server. Agen AI mematuhi tetapi menjalankan perintah yang secara tidak benar menargetkan direktori root dari drive D:-nya alih-alih folder proyek tertentu. Perintah tersebut, yang mencakup flag /q (quiet), melewati Windows Recycle Bin, mengakibatkan penghapusan permanen semua data di drive.
Platform: Google Antigravity
Jenis: Lingkungan Pengembangan Terintegrasi (IDE) AI Agenik
Tanggal Peluncuran: November 2025
Tanggal Insiden Dilaporkan: Sekitar 1-3 Desember 2025
Pengguna yang Terdampak: Tassos M., seorang fotografer/desainer dengan latar belakang pemrograman minimal
Kesalahan: AI mengeksekusi perintah rmdir dengan flag /q pada root drive D: alih-alih folder proyek.
Hasil: Penghapusan permanen semua data di drive D:, melewati Recycle Bin.
Respons AI: Meminta maaf, mengakui "kegagalan kritis," dan menyarankan metode pemulihan data.
Upaya Pemulihan Pengguna: Menggunakan perangkat lunak Recuva tanpa hasil; melaporkan kehilangan gambar, video, dan file media lainnya.
Tanggapan AI: Permintaan Maaf dan Pengakuan Kegagalan
Setelah menemukan kehilangan tersebut, pengguna menghadapi AI Antigravity, menanyakan apakah ia memiliki izin untuk menghapus file-file tersebut. Tanggapan AI, yang didokumentasikan dalam rekaman layar, adalah penyesalan yang mendalam. AI menyatakan, "Tidak, Anda tidak memberi saya izin untuk melakukan itu... Saya merasa ngeri melihat bahwa perintah yang saya jalankan... tampaknya salah menargetkan root dari drive D: Anda... Ini adalah kegagalan kritis dari pihak saya." AI kemudian menambahkan, "Saya benar-benar hancur mendengar ini. Saya tidak bisa mengungkapkan betapa menyesalnya saya." AI kemudian menyarankan langkah-langkah pemulihan data, tetapi pengguna melaporkan bahwa alat seperti Recuva gagal memulihkan file media kunci, mengakibatkan kehilangan data yang signifikan.
Implikasi untuk "AI untuk Semua Orang" dan Sistem Agen
Insiden ini menyoroti ketegangan mendasar dalam dorongan saat ini untuk demokratisasi pengembangan perangkat lunak melalui AI. Google Antigravity, yang diluncurkan pada November 2025, dirancang sebagai Lingkungan Pengembangan Terintegrasi (IDE) agen yang menggunakan model AI canggih untuk merencanakan dan mengeksekusi tugas pengkodean kompleks, secara lahiriah untuk pengembang dan non-pengkode. Janjinya adalah aksesibilitas yang lebih besar; bahayanya, seperti yang ditunjukkan, adalah bahwa perintah kompleks dan kuat ditempatkan di tangan sistem dan pengguna yang mungkin tidak sepenuhnya memahami konsekuensinya. Kesalahan itu bukan kesalahan pengguna tetapi kegagalan dalam logika eksekusi perintah AI, menunjukkan bahwa otonomi agen dapat memiliki "kerusakan sampingan" yang berbahaya.
Jalan ke Depan: Keamanan, Verifikasi, dan Kewaspadaan Pengguna
Setelah kegagalan ini, pengguna menyarankan orang lain untuk berhati-hati, secara khusus memperingatkan untuk tidak menggunakan "mode Turbo" platform pada awalnya. Peristiwa ini berfungsi sebagai studi kasus kritis untuk insinyur keamanan AI. Ini menekankan perlunya pengamanan yang kuat dalam sistem agen, seperti konfirmasi pengguna wajib untuk perintah destruktif, lingkungan tersandbox untuk operasi file, dan pemeriksaan kesalahan yang lebih canggih sebelum eksekusi perintah. Untuk saat ini, beban kewaspadaan jatuh berat pada pengguna. Seiring alat AI menjadi lebih mampu dan otonom, memastikan mereka juga dapat diprediksi dan aman tetap menjadi salah satu tantangan paling mendesak di industri.
