Sebuah audit baru mengungkapkan bahwa alat kecerdasan buatan telah menjadi jauh lebih tidak dapat diandalkan dalam membedakan fakta dari fiksi selama setahun terakhir. Studi tersebut menemukan bahwa sistem AI terdepan kini mengulangi informasi palsu lebih dari sepertiga waktu ketika menjawab pertanyaan terkait berita, hampir dua kali lipat dari tingkat sebelumnya.
Peningkatan dramatis dalam misinformasi ini berasal dari perubahan mendasar dalam cara sistem AI beroperasi. Ketika alat-alat ini mengadopsi pencarian web real-time untuk memberikan informasi yang lebih terkini, mereka secara tidak sengaja membuka diri terhadap manipulasi oleh aktor jahat yang mengeksploitasi ekosistem informasi online yang tercemar.
Perbandingan Tingkat Informasi Palsu AI
- Agustus 2024: 18% tingkat informasi palsu
- Agustus 2025: 35% tingkat informasi palsu
- Peningkatan: Hampir dua kali lipat (peningkatan 94%)
Trade-Off Antara Responsivitas dan Akurasi
Dorongan untuk membuat chatbot AI lebih membantu telah menciptakan masalah yang tidak terduga. Sebelumnya, sistem-sistem ini sering menolak untuk menjawab pertanyaan tentang peristiwa terkini, dengan alasan keterbatasan data atau menolak untuk memberikan pendapat tentang topik sensitif. Meskipun membuat frustrasi bagi pengguna, pendekatan hati-hati ini membantu mencegah penyebaran informasi palsu.
Sekarang, alat AI dengan antusias memberikan jawaban dengan mencari web secara real-time. Perubahan ini menghilangkan tingkat non-respons sepenuhnya, turun dari 31% menjadi 0% selama setahun terakhir. Namun, kesediaan baru untuk menjawab setiap pertanyaan ini datang dengan biaya yang mahal terhadap akurasi.
Masalah inti terletak pada bagaimana sistem-sistem ini mengevaluasi sumber online. Alat AI kesulitan membedakan antara outlet berita yang kredibel dan situs web yang tidak dapat diandalkan, memperlakukan blog dengan engagement rendah, postingan media sosial, dan farm konten yang dihasilkan AI sebagai sumber yang sama-sama dapat dipercaya.
Perubahan Tingkat Respons AI
- Tingkat non-respons pada Agustus 2024: 31%
- Tingkat non-respons pada Agustus 2025: 0%
- Perubahan: Penghapusan total terhadap respons yang ditolak
Eksploitasi oleh Aktor Jahat
Aktor jahat telah dengan cepat belajar untuk memanipulasi sistem ini. Operasi disinformasi Rusia dan jaringan jahat lainnya kini dengan sengaja menyebarkan informasi palsu di berbagai platform online, mengetahui bahwa sistem AI kemungkinan akan mengambil dan memperkuat klaim-klaim ini.
Ini menciptakan loop umpan balik yang berbahaya di mana informasi palsu dicuci melalui respons AI, berpotensi mencapai jutaan pengguna yang mempercayai sistem-sistem ini untuk memberikan informasi yang akurat. Masalah menjadi lebih kompleks karena konten yang dihasilkan AI itu sendiri menjadi bagian dari data pelatihan untuk sistem AI masa depan.
Organisasi Media Besar yang Memblokir Crawler AI
- BBC (bbc.co.uk/robots.txt)
- CNN (cnn.com/robots.txt)
- NBC News (nbcnews.com/robots.txt)
- Google-Extended ( Gemini ) juga diblokir oleh banyak situs
Skeptisisme Komunitas dan Kekhawatiran Metodologi
Komunitas teknologi telah mengajukan pertanyaan penting tentang bagaimana mengukur akurasi AI dengan tepat. Kritikus menunjukkan bahwa menentukan apa yang merupakan informasi palsu itu sendiri adalah tantangan yang kompleks, terutama untuk peristiwa terkini di mana fakta mungkin masih muncul atau diperdebatkan.
Membedakan fakta dari kebohongan jelas bukan tugas dasar. Banyak manusia mengalami kesulitan dengan hal itu.
Beberapa pengguna melaporkan pengalaman positif menggunakan AI untuk fact-checking, terutama dengan sistem yang lebih baru yang menyediakan kutipan sumber. Namun, tren yang lebih luas menunjukkan bahwa ketika alat AI menjadi lebih percaya diri dalam respons mereka, mereka mungkin juga menjadi lebih percaya diri dalam kesalahan.
Tantangan Ekosistem Informasi yang Lebih Luas
Masalah ini meluas melampaui sistem AI itu sendiri. Organisasi berita besar telah mulai memblokir crawler AI dari mengakses konten mereka, memaksa sistem-sistem ini untuk semakin bergantung pada sumber berkualitas rendah. Ini menciptakan siklus setan di mana alat AI memiliki akses yang lebih sedikit ke informasi otoritatif sambil memiliki akses yang lebih besar ke konten yang tidak dapat diandalkan.
Situasi ini menyoroti tantangan mendasar di era kecerdasan buatan: menyeimbangkan keinginan untuk sistem yang membantu dan responsif dengan kebutuhan akan informasi yang akurat dan dapat dipercaya. Ketika alat AI menjadi lebih terintegrasi ke dalam cara orang mengonsumsi berita dan informasi, mengatasi masalah akurasi ini menjadi semakin penting untuk mempertahankan wacana publik yang terinformasi.
Referensi: AI False Information Rate Nearly Doubles in One Year