Anthropic dilaporkan menolak untuk memodifikasi ketentuan layanannya guna memungkinkan badan-badan pemerintah AS menggunakan model AI Claude untuk kegiatan pengawasan domestik. Penolakan ini telah memicu diskusi signifikan di komunitas teknologi mengenai keseimbangan antara prinsip keamanan AI dan kontrak pemerintah.
Situasi ini tampaknya berasal dari negosiasi kontrak rutin di mana badan-badan pemerintah berusaha menggunakan Claude untuk berbagai tujuan, termasuk beberapa yang akan masuk dalam pembatasan Anthropic saat ini terkait kegiatan pengawasan. Tidak seperti beberapa pesaing, Anthropic mempertahankan pembatasan yang lebih luas tanpa pengecualian khusus untuk kegiatan penegakan hukum.
Pemain Kunci dan Posisi:
- Anthropic: Mempertahankan pembatasan pengawasan yang luas tanpa pengecualian untuk penegakan hukum
- OpenAI: Melarang "pemantauan individu tanpa izin" (mengimplikasikan persetujuan untuk pemantauan legal)
- Microsoft: Membatasi "pengawasan berkelanjutan atau identifikasi real-time tanpa persetujuan yang sah"
- Pemerintah AS: Berusaha memodifikasi ketentuan untuk aplikasi AI terkait pengawasan
![]() |
|---|
| Diskusi tentang etika AI dan kontrak pemerintah saat Anthropic menolak memodifikasi syarat dan ketentuan layanan |
Negosiasi Kontrak vs. Sikap Berprinsip
Para pengamat komunitas terbagi mengenai apakah ini merepresentasikan posisi etis yang genuine atau sekadar negosiasi bisnis standar. Beberapa melihatnya sebagai diskusi kontrak federal yang tipikal di mana badan-badan berusaha memodifikasi ketentuan dan perusahaan melakukan pushback. Realitanya mungkin kurang dramatis dari yang dilaporkan awalnya, dengan satu komentator mencatat bahwa ini terdengar seperti negosiasi kontrak federal yang tipikal dengan adanya pihak yang bersuara keras di suatu tempat.
Situasi ini menyoroti bagaimana perusahaan AI menavigasi lanskap kompleks kontrak pemerintah sambil mempertahankan prinsip etis yang mereka nyatakan. Model Anthropic sudah tersedia melalui marketplace federal, menunjukkan bahwa perusahaan tidak sepenuhnya menentang penggunaan pemerintah.
Pembatasan Penggunaan di Seluruh Industri
Diskusi ini mengungkapkan bahwa pembatasan penggunaan dalam kontrak perangkat lunak bukanlah hal yang tidak biasa. Banyak lisensi perangkat lunak tradisional mengandung batasan serupa, khususnya untuk aplikasi yang kritis untuk keselamatan atau militer. Bahkan bahasa pemrograman umum seperti Java menyertakan peringatan terhadap penggunaan di fasilitas nuklir, navigasi pesawat, atau sistem senjata.
Segala sesuatu berbahaya secara default. Itulah intinya.
Pendekatan perlindungan tanggung jawab ini meluas ke seluruh industri perangkat lunak, di mana perusahaan secara rutin membatasi penggunaan tertentu untuk menghindari eksposur hukum dan mempertahankan kontrol atas bagaimana produk mereka digunakan.
Contoh Pembatasan Kontrak:
- Peringatan teknologi Java terhadap penggunaan di fasilitas nuklir, navigasi pesawat, sistem persenjataan
- Larangan iTunes pada pengembangan rudal atau produksi senjata nuklir/kimia/biologis
- Klausul lisensi JSLint "harus digunakan untuk kebaikan, bukan kejahatan"
- Persyaratan sertifikasi perangkat lunak safety-critical DoD (peringkat LOR, pedoman DoD 882)
Tantangan Pengadaan Pemerintah
Insiden ini menyoroti kompleksitas pengadaan perangkat lunak pemerintah modern. Badan federal biasanya memiliki tim khusus yang dengan cermat meninjau setiap ketentuan kontrak dan mencari klarifikasi mengenai bahasa tertentu. Proses tinjauan menyeluruh ini menunjukkan bahwa badan-badan menyadari pembatasan sebelum menandatangani perjanjian.
Namun, munculnya layanan AI telah memperkenalkan tantangan baru. Tidak seperti pembelian perangkat lunak tradisional, model AI-as-a-service memberikan penyedia visibilitas berkelanjutan tentang bagaimana produk mereka digunakan, berpotensi memungkinkan mereka untuk menegakkan pembatasan secara real-time.
Implikasi Lebih Luas untuk Tata Kelola AI
Kebuntuan ini menimbulkan pertanyaan tentang bagaimana perusahaan AI harus menyeimbangkan kepentingan komersial dengan prinsip etis. Sementara beberapa melihat posisi Anthropic sebagai hal yang patut dipuji, yang lain mempertanyakan apakah ini merepresentasikan komitmen genuine terhadap keamanan atau sekadar taktik negosiasi.
Situasi ini juga menyoroti ketegangan yang meningkat antara adopsi cepat alat AI oleh pemerintah dan fokus industri teknologi yang meningkat pada pengembangan AI yang bertanggung jawab. Seiring AI menjadi lebih sentral dalam operasi pemerintah, konflik mengenai ketentuan penggunaan ini kemungkinan akan menjadi lebih umum dan konsekuensial.
Hasil dari sengketa khusus ini mungkin akan menetapkan preseden untuk bagaimana perusahaan AI lain mendekati negosiasi kontrak pemerintah serupa di masa depan.
Referensi: Exclusive: Anthropic inks White House with limits on models' use

