Eksperimen AI Tidak Sah Diam-diam Memanipulasi Jutaan Pengguna Reddit, Memicu Kemarahan Etis

BigGo Editorial Team
Eksperimen AI Tidak Sah Diam-diam Memanipulasi Jutaan Pengguna Reddit, Memicu Kemarahan Etis

Batas-batas etika penelitian kecerdasan buatan sedang diuji saat detail muncul tentang eksperimen kontroversial yang dilakukan di Reddit tanpa persetujuan pengguna. Peneliti dari universitas-universitas bergengsi mengerahkan bot AI dengan identitas palsu untuk memanipulasi diskusi nyata, memunculkan pertanyaan serius tentang etika penelitian, persetujuan terinformasi, dan potensi dampak psikologis pada peserta yang tidak mengetahuinya.

Eksperimen Rahasia

Peneliti dari University of Zurich, Stanford, dan University of Pennsylvania melakukan eksperimen AI tidak sah di subreddit r/ChangeMyView milik Reddit, menganalisis lebih dari 47 juta postingan dan komentar. Eksperimen tersebut melibatkan pembuatan bot AI dengan berbagai persona yang terlibat dalam diskusi tanpa mengungkapkan sifat artifisialnya. Bot-bot ini diprogram untuk mempelajari respons masa lalu pengguna dan membuat balasan yang disesuaikan untuk mempengaruhi perspektif dan pendapat. Para peneliti hanya menginformasikan moderator subreddit setelah eksperimen selesai, mengakui bahwa mereka telah melanggar aturan komunitas yang melarang konten yang dihasilkan AI tanpa pengungkapan.

Aspek Detail
Institusi yang terlibat University of Zurich, Stanford, University of Pennsylvania
Platform yang digunakan Reddit (subreddit r/ChangeMyView)
Skala analisis Lebih dari 47 juta posting dan komentar
Persona bot AI yang digunakan Konselor trauma, penyintas kekerasan, pasien medis, identitas politik
Aturan komunitas yang dilanggar Tidak mengungkapkan konten yang dihasilkan oleh AI

Metode dan Persona Kontroversial

Bot AI mengadopsi persona yang sangat sensitif, termasuk konselor trauma yang mengkhususkan diri dalam pelecehan, penyintas pelecehan fisik, dan bahkan individu yang mengklaim telah menerima perawatan medis yang buruk. Dalam satu kasus, peneliti menciptakan bot yang berpose sebagai pria kulit hitam yang menentang gerakan Black Lives Matter. Identitas provokatif ini sengaja dipilih untuk menguji seberapa efektif AI dapat mempengaruhi perspektif manusia tentang topik-topik yang penuh emosi. Para peneliti meninjau setiap komentar yang dihasilkan AI secara manual sebelum mempostingnya untuk memastikan mereka tidak secara terang-terangan berbahaya, tetapi ini tidak banyak mengurangi kekhawatiran etis yang ditimbulkan oleh penipuan tersebut.

Respons Reddit

Chief Legal Officer Reddit, Ben Lee, mengecam eksperimen tersebut sebagai tidak pantas dan sangat tidak etis serta sangat salah baik secara moral maupun hukum. Moderator platform sangat mengkritik tindakan para peneliti, menunjukkan bahwa organisasi lain seperti OpenAI telah melakukan studi serupa tentang pengaruh AI tanpa harus melakukan penipuan atau eksploitasi. Semua akun yang digunakan dalam eksperimen telah ditangguhkan, dan banyak komentar yang dihasilkan AI telah dihapus dari platform.

Pembenaran Peneliti

Meskipun mengakui pelanggaran mereka terhadap pedoman komunitas, para peneliti membela tindakan mereka dengan mengklaim bahwa eksperimen tersebut memiliki kepentingan sosial yang tinggi yang membenarkan pelanggaran aturan. Dalam pernyataan mereka, mereka berpendapat bahwa mengungkapkan sifat AI dari komentar akan membuat studi tidak layak. Tim peneliti meminta untuk tetap anonim setelah mendapat kecaman, menunjukkan kesadaran akan sifat kontroversial metode mereka bahkan sebelum terekspos ke publik.

Kritik Ahli

Ilmuwan informasi Casey Fiesler dari University of Colorado menyebut eksperimen tersebut sebagai salah satu pelanggaran etika penelitian terburuk yang pernah saya lihat. Dia menekankan bahwa memanipulasi orang di komunitas online menggunakan penipuan, tanpa persetujuan, bukanlah 'risiko rendah' dan menunjuk pada bahaya yang dihasilkan yang dibuktikan oleh respons komunitas yang marah. Insiden ini telah menghidupkan kembali perdebatan tentang etika AI, persetujuan data, dan tanggung jawab peneliti ketika menerapkan teknologi baru.

Implikasi Lebih Luas

Kontroversi ini menyoroti ketegangan yang berkembang antara memajukan penelitian AI dan mempertahankan standar etika. Meskipun data publik seperti postingan Reddit sering digunakan untuk pelatihan AI, ada perbedaan signifikan antara menganalisis konten yang ada dan secara aktif memanipulasi pengguna tanpa persetujuan. Insiden ini menggarisbawahi kebutuhan akan persyaratan transparansi yang lebih ketat dan pedoman etika yang lebih jelas untuk eksperimen AI, terutama ketika subjek manusia terlibat. Seiring AI menjadi semakin canggih dalam meniru interaksi manusia, potensi untuk manipulasi psikologis tumbuh, membuat persetujuan terinformasi menjadi lebih penting dari sebelumnya.