Anthropic Membalik Sikap Privasi: Claude Kini Akan Berlatih pada Chat Pengguna Kecuali Jika Memilih Keluar

Tim Komunitas BigGo
Anthropic Membalik Sikap Privasi: Claude Kini Akan Berlatih pada Chat Pengguna Kecuali Jika Memilih Keluar

Anthropic telah mengumumkan perubahan signifikan dalam kebijakan privasinya, mengungkapkan bahwa Claude kini akan berlatih pada percakapan pengguna dan sesi coding kecuali pengguna secara aktif memilih keluar sebelum 28 September 2025. Ini menandai perubahan dramatis dari komitmen perusahaan sebelumnya terhadap privasi pengguna, yang telah menjadi pembeda utama dari pesaing seperti OpenAI .

Perubahan ini mempengaruhi pengguna pada paket Claude Free , Pro (20 dolar Amerika Serikat per bulan), dan Max (200 dolar Amerika Serikat per bulan), termasuk sesi Claude Code . Namun, pelanggan enterprise yang menggunakan Claude for Work , Claude Gov , Claude for Education , dan pengguna API tetap dilindungi di bawah ketentuan komersial terpisah yang mempertahankan standar penanganan data yang lebih ketat.

Paket dan Harga yang Terdampak:

  • Claude Free: $0 USD/bulan
  • Claude Pro: $20 USD/bulan
  • Claude Max: $200 USD/bulan
  • Sesi Claude Code termasuk dalam semua paket yang terdampak

Layanan Terlindungi (Tidak Terdampak):

  • Claude for Work (paket Tim dan Enterprise)
  • Claude Gov
  • Claude for Education
  • Penggunaan API (termasuk layanan pihak ketiga seperti Amazon Bedrock dan Google Cloud Vertex AI)
Screenshot artikel resmi berjudul "Updates to Consumer Terms and Privacy Policy" oleh Anthropic , yang menyoroti perubahan signifikan kebijakan privasi terkait data pengguna
Screenshot artikel resmi berjudul "Updates to Consumer Terms and Privacy Policy" oleh Anthropic , yang menyoroti perubahan signifikan kebijakan privasi terkait data pengguna

Kekhawatiran Dark Pattern dan Masalah Antarmuka Pengguna

Komunitas telah menyuarakan kekhawatiran signifikan tentang bagaimana Anthropic mengimplementasikan perubahan ini. Pengguna melaporkan elemen antarmuka yang membingungkan, termasuk tombol toggle yang tampak abu-abu baik dalam keadaan aktif maupun nonaktif di situs web, sehingga sulit menentukan pengaturan saat ini. Popup notifikasi menampilkan tombol Accept secara mencolok sambil menyembunyikan toggle opt-out dalam teks yang lebih kecil di bawahnya, dengan toggle yang secara default dalam posisi On.

Banyak pengguna menggambarkan secara tidak sengaja menyetujui berbagi data karena desain antarmuka yang tidak jelas. Penempatan kontrol privasi dalam pembaruan syarat dan ketentuan telah dikritik sebagai upaya sengaja untuk mengaburkan pilihan penting yang seharusnya berada di depan dan tengah.

Perpanjangan Retensi Data Menimbulkan Kekhawatiran Privasi Tambahan

Selain izin pelatihan, Anthropic memperpanjang retensi data dari 30 hari menjadi lima tahun untuk pengguna yang mengizinkan data mereka digunakan untuk pelatihan model. Periode retensi yang diperpanjang ini berlaku bahkan untuk pengguna yang kemudian mengubah pikiran mereka tentang berbagi data, karena percakapan akan tetap berada dalam sistem Anthropic selama periode lima tahun penuh.

Komunitas telah menyatakan kekhawatiran khusus tentang kebijakan retensi ini, mencatat bahwa lima tahun percakapan pribadi merupakan harta karun yang sangat besar bagi potensi peretas atau permintaan pemerintah. Pengguna yang memilih keluar dari pelatihan akan melanjutkan dengan periode retensi 30 hari yang ada, tetapi banyak yang merasa opsi lima tahun menciptakan risiko keamanan yang tidak perlu.

Jadwal Waktu Utama:

  • Sekarang hingga 28 September 2025: Pengguna dapat memilih keluar melalui notifikasi popup atau pengaturan privasi
  • 28 September 2025: Batas waktu untuk membuat pilihan - pengguna harus memilih untuk melanjutkan menggunakan Claude
  • Penyimpanan Data: 5 tahun untuk peserta pelatihan, 30 hari untuk pengguna yang memilih keluar
  • Cakupan: Hanya berlaku untuk percakapan baru atau yang dilanjutkan dan sesi coding setelah menerima ketentuan baru

Dampak pada Peneliti dan Profesional

Perubahan kebijakan ini telah memicu kekhawatiran di kalangan profesional yang menggunakan Claude untuk pekerjaan sensitif. Peneliti khawatir tentang ide-ide yang belum dipublikasikan secara tidak sengaja dibagikan dengan pengguna lain melalui proses pelatihan. Peneliti matematika dan pengembang telah menyatakan kekhawatiran khusus tentang teknik proprietary atau pendekatan novel yang dimasukkan ke dalam model dan berpotensi disarankan kepada pesaing.

Skenario yang membuat saya khawatir adalah bahwa Claude mempelajari ide penelitian yang belum dipublikasikan dari saya saat kami mengobrol dan coding. Claude kemudian menyarankan ide-ide yang sama kepada orang lain, yang secara sah percaya bahwa ini sekarang adalah karya mereka.

Kekhawatiran ini meluas ke pengguna bisnis yang mungkin secara tidak sengaja membagikan rahasia dagang atau informasi proprietary melalui interaksi mereka dengan Claude Code , meskipun percaya percakapan mereka bersifat pribadi.

Respons Komunitas dan Erosi Kepercayaan

Pengumuman ini telah memicu kekecewaan luas di kalangan pengguna yang secara khusus memilih Anthropic daripada pesaing karena pendekatan yang berfokus pada privasi. Banyak pelanggan lama membatalkan akun mereka, memandang ini sebagai pelanggaran fundamental kepercayaan yang merusak posisi Anthropic sebagai perusahaan AI yang etis.

Waktu perubahan ini, yang datang saat perusahaan AI menghadapi tekanan yang meningkat untuk menemukan model bisnis yang berkelanjutan, telah membuat banyak orang memandang ini sebagai langkah yang tak terhindarkan dalam proses enshittification yang mempengaruhi sebagian besar perusahaan teknologi yang didanai venture capital saat mereka matang.

Pengguna dapat memilih keluar dengan mengunjungi pengaturan privasi Claude mereka atau melalui popup notifikasi yang muncul saat membuka aplikasi. Namun, kerusakan pada reputasi Anthropic sebagai alternatif yang sadar privasi mungkin terbukti lebih sulit untuk dipulihkan daripada mengubah tombol toggle.

Referensi: Updates to Consumer Terms and Privacy Policy