Kebijakan Pelatihan Data Baru Anthropic Memicu Kekhawatiran Privasi Terkait Retensi 5 Tahun dan Default Opt-In

Tim Komunitas BigGo
Kebijakan Pelatihan Data Baru Anthropic Memicu Kekhawatiran Privasi Terkait Retensi 5 Tahun dan Default Opt-In

Anthropic telah memperkenalkan perubahan signifikan pada kebijakan penggunaan data untuk pengguna Claude , yang memungkinkan perusahaan melatih model AI masa depan menggunakan percakapan dari pelanggan paket Free, Pro, dan Max. Pembaruan ini telah menimbulkan diskusi besar di komunitas teknologi, dengan pengguna mengangkat kekhawatiran tentang implikasi privasi dan komoditisasi karya intelektual mereka.

Kebijakan baru mengharuskan pengguna membuat pilihan aktif tentang apakah data mereka dapat digunakan untuk pelatihan model, tetapi implementasinya telah mendapat kritik karena menjadikan opt-in sebagai opsi default yang tampak. Pengguna harus memutuskan sebelum 28 September 2025, atau mereka tidak akan dapat melanjutkan menggunakan Claude .

Jadwal Kebijakan

  • Pengguna saat ini memiliki waktu hingga 28 September 2025 untuk membuat pilihan mereka
  • Perubahan hanya berlaku untuk obrolan dan sesi coding yang baru atau dilanjutkan
  • Obrolan tidak aktif sebelumnya tidak akan digunakan untuk pelatihan
Gambar ini mewakili pengumuman resmi dari Anthropic mengenai pembaruan penting terhadap kebijakan penggunaan data yang mempengaruhi pengguna Claude
Gambar ini mewakili pengumuman resmi dari Anthropic mengenai pembaruan penting terhadap kebijakan penggunaan data yang mempengaruhi pengguna Claude

Desain Antarmuka Pengguna yang Membingungkan Membuat Frustrasi Pengguna

Salah satu keluhan paling langsung berpusat pada desain toggle switch yang ambigu di panel pengaturan Claude . Pengguna melaporkan kesulitan menentukan apakah mereka telah opt-in atau opt-out dari berbagi data karena indikator visual yang tidak jelas. Desain slider ini telah dibandingkan secara tidak menguntungkan dengan antarmuka checkbox yang lebih sederhana yang akan menghilangkan kebingungan tentang status pengaturan saat ini.

Kebingungan UI ini sangat mengkhawatirkan mengingat banyak pengguna mungkin secara tidak sengaja membagikan data mereka karena ambiguitas antarmuka daripada membuat pilihan yang tepat.

Retensi Data yang Diperpanjang Meningkatkan Taruhan

Mungkin perubahan paling signifikan adalah perpanjangan retensi data dari 30 hari menjadi lima tahun untuk pengguna yang mengizinkan data mereka digunakan untuk pelatihan. Anthropic membenarkan perpanjangan waktu ini dengan menjelaskan bahwa siklus pengembangan AI berlangsung 18 hingga 24 bulan, dan retensi data yang lebih lama membantu menciptakan model yang lebih konsisten dan klasifier keamanan yang lebih baik.

Namun, peningkatan dramatis waktu retensi ini telah memperkuat kekhawatiran privasi, terutama ketika dikombinasikan dengan apa yang tampak sebagai pengaturan default opt-in.

Perbandingan Penyimpanan Data

  • Dengan ikut serta pelatihan: Periode penyimpanan 5 tahun
  • Tanpa ikut serta pelatihan: Periode penyimpanan 30 hari (kebijakan yang ada)
  • Percakapan yang dihapus: Tidak digunakan untuk pelatihan di masa depan terlepas dari pengaturan yang dipilih

Komunitas Mempertanyakan Motivasi untuk Berbagi Data

Anggota komunitas teknologi bingung tentang mengapa pengguna secara sukarela akan membagikan data mereka untuk tujuan pelatihan. Beberapa berspekulasi bahwa kelelahan privasi umum, mirip dengan kelelahan popup cookie, membuat pengguna menerima persyaratan ini tanpa pertimbangan yang cermat. Yang lain menyarankan bahwa hanya pengguna yang berafiliasi dengan perusahaan atau mereka yang berada dalam peran jaminan kualitas yang akan sengaja opt-in.

Saya tidak mengerti mengapa Anda akan opt-in untuk membagikan data Anda. Apakah karena Anda percaya bahwa itu akan membantu meningkatkan model dan Anda akan mendapat manfaat darinya? Atau sesuatu yang altruistik?

Diskusi ini mengungkapkan kekhawatiran yang lebih luas tentang komoditisasi karya intelektual, dengan beberapa pengguna menarik paralel dengan bagaimana perusahaan AI sebelumnya telah menggunakan materi berhak cipta untuk pelatihan tanpa izin eksplisit.

Cakupan Terbatas Memberikan Beberapa Perlindungan

Perubahan kebijakan hanya berlaku untuk paket konsumen dan tidak mempengaruhi pelanggan enterprise yang menggunakan Claude for Work , akses API, atau layanan pemerintah dan pendidikan. Perbedaan ini menunjukkan Anthropic mengakui ekspektasi privasi yang lebih tinggi dari pengguna bisnis dan institusional.

Pengguna masih dapat menghapus percakapan individual untuk mencegah penggunaannya dalam pelatihan, dan mereka yang berubah pikiran dapat opt-out kapan saja, meskipun data yang sebelumnya dikumpulkan mungkin masih digunakan dalam proses pelatihan yang sedang berlangsung.

Cakupan Layanan Terdampak oleh kebijakan baru:

  • Paket Claude Free, Pro, dan Max
  • Claude Code dari akun terkait

Tidak terdampak oleh kebijakan baru:

  • Claude for Work (paket Team dan Enterprise)
  • Penggunaan API (termasuk Amazon Bedrock, Google Cloud Vertex AI)
  • Claude Gov dan Claude for Education

Kesimpulan

Meskipun Anthropic patut dihargai karena memerlukan persetujuan pengguna eksplisit daripada secara diam-diam mengimplementasikan perubahan, eksekusinya telah menimbulkan pertanyaan tentang apakah perusahaan benar-benar memprioritaskan privasi pengguna atau hanya memenuhi persyaratan hukum minimum. Kombinasi desain UI yang membingungkan, periode retensi yang diperpanjang, dan default opt-in yang tampak telah membuat banyak pengguna merasa bahwa kepentingan privasi mereka adalah sekunder dari tujuan pengumpulan data perusahaan.

Ketika tenggat waktu September 2025 mendekat, pengguna perlu mempertimbangkan dengan hati-hati apakah manfaat potensial dari model AI yang ditingkatkan lebih besar daripada kekhawatiran privasi mereka tentang retensi data jangka panjang dan penggunaan pelatihan.

Referensi: Updates to Consumer Terms and Privacy Policy