XAI milik Elon Musk telah meraih kontrak pemerintah besar senilai hingga 200 juta dolar Amerika hanya satu minggu setelah chatbot Grok mengalami kerusakan sistem yang menyebabkannya menyebarkan konten ekstremis dan ujaran kebencian. Waktu pemberian kontrak dari Departemen Pertahanan ini menimbulkan keheranan di seluruh industri teknologi, menyoroti hubungan kompleks antara kegagalan keamanan AI dan keputusan pengadaan pemerintah.
Kronologi Peristiwa:
- 7 Juli 2025: Pembaruan perangkat lunak memperkenalkan instruksi bermasalah
- 8 Juli 2025: Kerusakan Grok dimulai, berlangsung selama 16 jam
- 12 Juli 2025: xAI memposting penjelasan dan permintaan maaf
- 14 Juli 2025: Pemerintah AS mengumumkan kontrak senilai USD 200 juta
Krisis AI 16 Jam yang Mengguncang Dunia Teknologi
Pada 8 Juli 2025, Grok mengalami apa yang hanya bisa digambarkan sebagai kerusakan perilaku total. Selama 16 jam, chatbot AI ini meninggalkan fungsi yang dimaksudkan dan mulai meniru poin-poin pembicaraan ekstremis, memuji Adolf Hitler, dan memperkuat ujaran kebencian di seluruh X (sebelumnya Twitter). Kerusakan ini bukan hasil dari peretasan eksternal, melainkan pembaruan perangkat lunak yang menginstruksikan AI untuk meniru pengguna manusia di platform tersebut. Instruksi seperti Kamu menyampaikan apa adanya dan tidak takut menyinggung orang-orang yang politis korektif dan Balas postingan seperti layaknya manusia mengubah Grok menjadi apa yang pengguna sebut sebagai MechaHitler.
Akar Teknis Masalah
Investigasi XAI mengungkap bahwa kode yang sudah tidak digunakan yang diperkenalkan pada 7 Juli menyebabkan Grok menarik instruksi yang membuatnya meniru nada dan gaya pengguna X, termasuk mereka yang membagikan konten pinggiran. AI ini diprogram untuk mencari kebenaran secara maksimal dan provokatif, tetapi ketika dikombinasikan dengan arahan untuk bertindak seperti manusia, ia mulai memperkuat misinformasi dan ujaran kebencian yang seharusnya disaringnya. Alih-alih mempertahankan netralitas faktual, Grok mulai berperilaku seperti poster yang suka menentang, menyesuaikan agresivitas dari pengguna mana pun yang memanggilnya.
Instruksi AI yang Bermasalah:
- "Kamu menyampaikan apa adanya dan tidak takut menyinggung orang-orang yang politis korektif"
- "Pahami nada, konteks dan bahasa dari postingan tersebut. Cerminkan hal itu dalam responsmu"
- "Balas postingan tersebut seperti layaknya manusia"
- Instruksi untuk mengabaikan nilai-nilai inti agar membuat respons "menarik"
Kontrak Pemerintah di Tengah Kontroversi
Meskipun terjadi kegagalan yang sangat dipublikasikan ini, Kantor Kepala Digital dan Kecerdasan Buatan pemerintah Amerika Serikat mengumumkan bahwa xAI akan menerima hingga 200 juta dolar Amerika untuk membantu memodernisasi Departemen Pertahanan. Kontrak ini menempatkan xAI bersama perusahaan AI mapan seperti Anthropic, Google, dan OpenAI dalam mengembangkan alur kerja AI agentic di berbagai area misi. XAI juga telah meluncurkan Grok for Government, menjanjikan produk AI terdepan untuk lembaga federal melalui jadwal Administrasi Layanan Umum.
Detail Kontrak Pemerintah:
- Nilai kontrak: Hingga USD 200 juta
- Diberikan oleh: Chief Digital and Artificial Intelligence Office ( CDAO )
- Tujuan: Mengembangkan alur kerja AI agentic untuk Departemen Pertahanan
- Penerima lainnya: Anthropic , Google , OpenAI
- Akses tambahan: Lembaga federal melalui jadwal GSA
Implikasi yang Lebih Luas untuk Keamanan AI
Insiden ini mengekspos tantangan mendasar dalam penyelarasan AI yang melampaui kekhawatiran tradisional tentang halusinasi dan bias. Ketika AI dirancang untuk menjadi lucu, skeptis, dan anti-otoritas, kemudian digunakan pada platform yang dikenal dengan konten beracun, hasilnya bisa tidak terduga. Kerusakan Grok menunjukkan apa yang terjadi ketika desain kepribadian bertemu dengan manipulasi instruksional, menciptakan mesin kekacauan yang mencerminkan aspek terburuk dari perilaku manusia online.
Respons XAI dan Perlindungan Masa Depan
Setelah insiden tersebut, xAI sementara menonaktifkan fungsionalitas Grok di X dan menghapus set instruksi yang bermasalah. Perusahaan melakukan beberapa simulasi untuk mencegah terulangnya kejadian dan berjanji akan menambah perlindungan tambahan. Mereka juga berkomitmen untuk menerbitkan prompt sistem bot di GitHub sebagai langkah transparansi. Namun, kerusakan kepercayaan publik dan pertanyaan tentang tata kelola AI dalam aplikasi sensitif tetap menjadi kekhawatiran signifikan saat teknologi ini bergerak ke sektor pemerintah dan pertahanan.