Arbitrus AI Janjikan Konsistensi Hukum, Namun Pertanyaan Transparansi Masih Tersisa

Tim Komunitas BigGo
Arbitrus AI Janjikan Konsistensi Hukum, Namun Pertanyaan Transparansi Masih Tersisa

Sebuah sistem AI yang mengklaim dapat memecahkan salah satu masalah terbesar dalam kecerdasan buatan hukum telah memicu baik kegembiraan maupun skeptisisme. Sementara para pencipta Arbitrus.ai membanggakan konsistensi sempurna dalam menilai pertanyaan hukum, komunitas sedang menyelidiki implikasi praktis dan pertanyaan yang belum terjawab seputar teknologi baru ini.

Janji AI Hakim yang Konsisten

Klaim inti dari para pencipta Arbitrus adalah bahwa sistem AI mereka, yang dibangun sebagai classifier dan bukan large language model (LLM), memberikan konsistensi sempurna di berbagai variasi penyusunan kata dari pertanyaan hukum yang sama. Hal ini langsung menangani masalah variasi prompt yang terkenal ditunjukkan dalam penelitian Jonathan Choi, di mana LLM seperti ChatGPT memberikan jawaban berbeda untuk pertanyaan hukum yang sama tergantung pada cara perumusannya. Perusahaan menyatakan sistem mereka mencapai konsistensi sempurna ini dengan halusinasi nol dalam pengujian internal mereka, memposisikannya sebagai alat potensial untuk pengambilan keputusan hukum yang andal.

Saya menyukai ide Arbitrus.ai, tetapi mereka meminta 2.500 dolar AS untuk sekali percobaan. Saya berharap mereka memiliki versi demo untuk dicoba.

Perbandingan: LLM vs. Arbitrus Classifier

Aspek LLM (misalnya, ChatGPT) Arbitrus Classifier
Konsistensi Variasi prompt tinggi Mengklaim konsistensi sempurna
Halusinasi Sering terjadi Mengklaim nol halusinasi
Penalaran Hukum Kualitas bervariasi Menyertakan penalaran dalam output
Aksesibilitas Tersedia secara luas $2.500 USD per penggunaan
Transparansi Arsitektur terbuka Teknologi proprietary

Model Bisnis dan Pasar Sasaran

Sementara artikel awal memposisikan Arbitrus sebagai pengganti potensial bagi profesional hukum manusia, investigasi komunitas mengungkapkan model bisnis sebenarnya lebih berfokus pada arbitrase swasta. Sistem ini dipasarkan sebagai sistem pengadilan swasta dengan hakim AI yang bertujuan menyediakan alternatif yang lebih cepat dan murah dibandingkan pengadilan publik atau arbitrase AAA tradisional. Ini memperjelas bahwa teknologi tersebut tidak selalu menargetkan firma hukum atau hakim secara langsung, melainkan pihak-pihak yang bersengketa yang mencari resolusi efisien di luar sistem tradisional. Titik harga 2.500 dolar AS untuk menggunakan layanan tersebut telah dicatat sebagai hambatan signifikan untuk eksperimen kasual.

Kekhawatiran Transparansi dan Kepercayaan

Komunitas hukum telah mengangkat pertanyaan penting tentang bagaimana Arbitrus menangani masalah kritis transparansi dan kemampuan penjelasan. Profesional hukum biasanya membutuhkan penalaran yang jelas di balik keputusan, bukan hanya hasil biner. Sementara makalah perusahaan menunjukkan sistem mereka memang menghasilkan penalaran hukum bersama dengan keputusannya, sifat kepemilikan teknologi mereka menimbulkan kekhawatiran. Seperti yang dicatat salah satu komentator, sebagian besar pengacara yang kompeten memiliki standar tinggi ketika menyangkut kepercayaan terhadap output AI/ML apa pun, menunjukkan bahwa membangun kepercayaan dalam komunitas hukum akan menjadi tantangan yang signifikan.

Kekhawatiran Utama Komunitas Tentang Arbitrus.ai:

  • Transparansi: Bagaimana classifier memberikan penalaran hukum yang dapat dijelaskan?
  • Aksesibilitas: Harga USD 2.500 membatasi pengujian dan adopsi
  • Kepercayaan: Profesional hukum memerlukan tingkat keyakinan yang tinggi terhadap output AI
  • Teknologi: Sifat proprietary mencegah verifikasi independen
  • Aplikasi: Fokus pada arbitrase privat, bukan menggantikan pengacara atau hakim

Pertanyaan tentang Teknologi Proprietary

Mungkin titik diskusi paling signifikan berpusat pada jenis classifier apa yang sebenarnya digunakan Arbitrus. Perusahaan secara eksplisit menyatakan bahwa informasi ini adalah proprietary dan bagian dari moat Fortuna, yang berarti mereka menganggapnya sebagai keunggulan kompetitif yang tidak ingin mereka ungkapkan. Hal ini menciptakan ketegangan antara kebutuhan transparansi dalam aplikasi hukum dan realitas komersial dari melindungi kekayaan intelektual. Komunitas telah mencatat bahwa bahkan LLM dapat dilihat sebagai classifier, membuat perbedaan antara pendekatan mereka dan teknologi yang ada agak tidak jelas tanpa detail teknis lebih lanjut.

Kemunculan sistem AI seperti Arbitrus mewakili perkembangan penting dalam teknologi hukum, tetapi juga menyoroti keseimbangan kompleks antara inovasi teknologi dan standar ketat yang diperlukan untuk aplikasi hukum. Sementara janji resolusi hukum yang konsisten dan terjangkau sangat menarik, pertanyaan tentang transparansi, kepercayaan, dan aksesibilitas praktis perlu diatasi sebelum sistem seperti ini dapat mendapatkan penerimaan luas di komunitas hukum.

Referensi: LLMs are Bad Judges. So use Our Classifier Instead.