Anthropic melakukan perubahan signifikan dalam cara menangani data pengguna sambil merilis penelitian yang mengungkap tren mengkhawatirkan dalam penggunaan AI pendidikan. Perusahaan di balik chatbot Claude ini beralih dari pendekatan yang sebelumnya berfokus pada privasi dan kini akan mulai melatih model AI-nya menggunakan percakapan pengguna, menandai perubahan mencolok dari komitmen sebelumnya terhadap perlindungan data.
Pembalikan Kebijakan Privasi Mempengaruhi Semua Pengguna Claude
Anthropic telah mengumumkan akan mulai mengumpulkan percakapan pengguna untuk melatih versi masa depan Claude , meninggalkan kebijakan sebelumnya yang tidak menggunakan data pelanggan untuk pelatihan model. Perubahan ini merepresentasikan pergeseran fundamental dalam pendekatan perusahaan terhadap privasi pengguna. Sebelumnya, Anthropic hanya mengumpulkan data ketika pengguna secara eksplisit melaporkan materi atau memilih untuk bergabung dalam program pelatihan.
Kebijakan baru berlaku efektif pada 28 September 2025, memberikan pengguna yang sudah ada jendela waktu terbatas untuk membuat pilihan mereka. Pengguna baru akan menemui keputusan opt-in selama pengaturan akun, sementara pengguna saat ini akan melihat popup izin saat login berikutnya. Perusahaan telah menetapkan opsi default untuk mengizinkan pengumpulan data, artinya pengguna harus secara aktif memilih untuk melindungi privasi mereka.
Perubahan Kebijakan Privasi Utama
- Kebijakan Sebelumnya: Tidak ada pengumpulan data pengguna untuk pelatihan kecuali secara eksplisit dilaporkan atau pengguna memilih untuk ikut serta
- Kebijakan Baru: Ikut serta secara default untuk pengumpulan data dimulai pada 28 September 2025
- Data yang Terpengaruh: Percakapan baru dan sesi masa lalu yang diaktifkan kembali
- Kontrol Pengguna: Tombol tersedia di Pengaturan Privasi untuk memilih keluar
- Perlindungan Data: Proses otomatis untuk menyembunyikan informasi sensitif, tidak ada penjualan kepada pihak ketiga
Penelitian Pendidikan Mengungkap Kekhawatiran Penilaian Otomatis
Secara bersamaan, Anthropic telah menerbitkan laporan pendidikan yang menganalisis bagaimana guru menggunakan Claude , mengungkap pola yang meresahkan dalam adopsi AI. Studi ini meneliti 74.000 percakapan dari akun pendidikan tinggi selama Mei dan Juni 2025, mengungkap bahwa para pendidik semakin bergantung pada AI untuk tugas-tugas sensitif seperti penilaian siswa.
Penelitian menemukan bahwa meskipun pengembangan kurikulum merepresentasikan 57% penggunaan AI di antara para pendidik, 7% yang mengkhawatirkan menggunakan Claude untuk menilai kinerja siswa. Yang lebih mengkhawatirkan adalah hampir setengah dari interaksi penilaian ini—48,9%—melibatkan otomatisasi lengkap daripada bantuan AI. Hal ini terjadi meskipun para pendidik sendiri menilai AI sebagai yang paling tidak efektif untuk tugas penilaian.
Statistik Penggunaan Claude dalam Pendidikan
Kategori Tugas | Persentase Penggunaan | Tingkat Otomatisasi |
---|---|---|
Pengembangan Kurikulum | 57% | Rendah (kolaborasi lebih disukai) |
Penelitian Akademik | 13% | Rendah (kolaborasi lebih disukai) |
Penilaian/Pemberian Nilai Siswa | 7% | 48,9% (otomatisasi tinggi) |
Tugas Administratif | Persentase sisanya | Otomatisasi tinggi |
![]() |
---|
Menjelajahi kompleksitas dan implikasi AI dalam pendidikan |
Fakultas Menyatakan Kekhawatiran Etis tentang Penilaian AI
Studi ini mencakup penelitian kualitatif dari 22 anggota fakultas Northeastern University yang menyoroti isu etis signifikan dengan penilaian otomatis. Seorang profesor menekankan kewajiban moral yang dimiliki pendidik terhadap siswa mereka, menyatakan bahwa siswa membayar uang kuliah untuk keahlian manusia, bukan evaluasi AI.
Anthropic sendiri menyatakan kekhawatiran tentang tingkat otomatisasi yang tinggi dalam penilaian, mengakui bahwa delegasi tugas pendidikan kritis semacam itu menimbulkan pertanyaan serius tentang kualitas dan keadilan pendidikan. Perusahaan mencatat bahwa meskipun sejauh mana penilaian yang dihasilkan AI mempengaruhi nilai akhir masih belum jelas, data menunjukkan ketergantungan substansial pada evaluasi otomatis.
Implikasi yang Lebih Luas untuk AI dalam Pendidikan
Waktu perkembangan ini bertepatan dengan peningkatan kompetisi di antara perusahaan AI yang menargetkan sektor pendidikan. Anthropic baru-baru ini meluncurkan Learning Mode untuk Claude , sementara pesaing seperti OpenAI telah memperkenalkan Study Mode. Google telah membuat suite AI seharga 20 dolar Amerika per bulan gratis untuk mahasiswa, menyoroti potensi menguntungkan dari kontrak pendidikan.
Penelitian mengungkap bahwa para pendidik lebih bersedia mengotomatisasi tugas administratif seperti manajemen keuangan dan catatan siswa, sambil lebih memilih kolaborasi AI untuk aktivitas kompleks yang memerlukan pemikiran kritis. Namun, tingkat otomatisasi yang tinggi dalam penilaian menunjukkan beberapa pendidik mungkin melewati batas etis dalam adopsi AI mereka.
Metodologi Penelitian
- Sumber Data: 74.000 percakapan Claude yang dianonimkan dari akun pendidikan tinggi
- Periode Waktu: Mei-Juni 2025
- Penelitian Tambahan: Data survei dan kualitatif dari 22 fakultas Northeastern University
- Klasifikasi Tugas: Disesuaikan dengan database O*NET dari Departemen Tenaga Kerja AS
- Jenis Akun: Akun gratis dan Pro dengan alamat email pendidikan tinggi
Kontrol Pengguna dan Opsi Perlindungan Data
Meskipun ada perubahan kebijakan, Anthropic mempertahankan bahwa pengguna tetap memiliki kontrol atas data mereka. Perusahaan mengklaim menggunakan proses otomatis untuk menyembunyikan informasi sensitif dan menyatakan tidak menjual data pengguna kepada pihak ketiga. Pengguna yang ingin keluar dapat menonaktifkan toggle Help improve Claude di pengaturan privasi mereka.
Untuk pengguna yang sudah ada yang mungkin secara tidak sengaja menyetujui pengumpulan data, pengaturan dapat diubah dengan menavigasi ke Settings > Privacy > Privacy Settings. Namun, data apa pun yang sudah dikumpulkan tidak dapat diambil kembali setelah pengguna memilih untuk bergabung dalam program pelatihan.