“Bot' Telah Banyak Membantu Proses Hukum di Luar Persidangan
Foto: IstimewaKecerdasan buatan (artificial intelligence/AI) yang mengotomasi tugas mental, akan banyak mengambil alih pada pekerjaan kerah putih yang sebelumnya dianggap aman dari otomatisasi. Salah satu yang diambil alih oleh teknologi ini adalah praktik hukum.
"Meskipun AI lebih cenderung membantu daripada mengganti pengacara dalam waktu dekat, AI sudah digunakan untuk meninjau kontrak, menemukan dokumen yang relevan dalam proses penemuan, dan melakukan penelitian hukum," kata Matthew Stepka, seorang doktor hukum dari UC Berkeley School of Law dalam tulisannya di laman Business Law Today.
Oleh pengacara, kata Stepka, AI mulai digunakan untuk membantu menyusun kontrak, memprediksi hasil hukum, dan bahkan merekomendasikan keputusan pengadilan tentang hukuman atau jaminan. Manfaat potensialnya dalam hukum sangat nyata.
Bagi pengacara dapat meningkatkan produktivitas dan menghindari kesalahan yang merugikan. Dalam beberapa kasus, juga dapat melumasi roda keadilan untuk meningkatkan kecepatan penelitian dan pengambilan keputusan.
Untuk beberapa waktu, algoritma telah digunakan dalam menemukan proses hukum untuk mengidentifikasi dokumen yang relevan dari lawan dalam gugatan. Sekarang, pembelajaran mesin (machine learning) juga digunakan dalam upaya ini. Perusahaan seperti CS Disco, yang baru-baru ini menyediakan layanan penemuan bertenaga AI untuk firma hukum di seluruh AS.
Contoh lain dari fitur bertenaga AI dari Westlaw Edge adalah Quick Check, yang menggunakan AI untuk menganalisis draf argumen untuk mendapatkan wawasan lebih lanjut atau mengidentifikasi otoritas relevan yang mungkin terlewatkan. Quick Check bahkan dapat mendeteksi ketika sebuah kasus yang dikutip telah dibatalkan secara tidak langsung.
Penggunaan baru AI lainnya adalah memprediksi hasil hukum. Menilai secara akurat kemungkinan hasil yang sukses untuk gugatan bisa sangat berharga. Hal ini memungkinkan seorang pengacara untuk memutuskan apakah mereka harus mengambil kasus kontingensi, atau berapa banyak untuk berinvestasi pada ahli, atau apakah akan menyarankan klien mereka untuk menyelesaikannya.
"Perusahaan seperti lex machina menggunakan pembelajaran mesin dan analitik prediktif untuk mendapatkan wawasan tentang hakim dan pengacara individu, serta kasus hukum itu sendiri, untuk memprediksi perilaku dan hasil," kata dia.
Penggunaan AI yang lebih memprihatinkan adalah dalam menasihati hakim tentang keputusan jaminan dan hukuman. Salah satu aplikasi tersebut adalah Correctional Offender Management Profiling for Alternative Sanctions (COMPAS).
"COMPAS dan alat AI serupa digunakan oleh hakim pidana di banyak negara bagian untuk menilai risiko residivisme terdakwa atau terpidana dalam keputusan penahanan pra-sidang, hukuman atau pembebasan dini. Ada banyak perdebatan tentang keadilan atau keakuratan sistem ini," tulis Stepka.
Menurut sebuah studi ProPublica, alat penilaian seperti itu tampak bias terhadap tahanan kulit hitam di AS, secara tidak proporsional menandai mereka secara signifikan lebih mungkin untuk melakukan pelanggaran daripada tahanan kulit putih.
Equivant, perusahaan yang mengembangkan COMPAS, berusaha menyangkal analisis ProPublica dan menolak kesimpulannya tentang bias rasial.
Terlepas dari itu, menggunakan AI dalam konteks ini dapat mencerminkan, atau bahkan memperkuat, bias yang melekat pada data sistem peradilan pidana. Data yang digunakan untuk melatih model pembelajaran mesin didasarkan pada tingkat penangkapan dan hukuman aktual yang mungkin miring terhadap beberapa populasi. Dengan demikian hal itu dapat mengabadikan ketidakadilan di masa lalu, atau lebih buruk lagi, secara salah menyelubungi mereka dengan objektivitas yang dihasilkan komputer.
Permasalahan-permasalah yang harus dijawab, kata Stepka, adalah haruskah terdakwa pidana memiliki hak untuk mengakses alat AI jika membantu kasus mereka? Apakah pengacara perlu mengungkapkan penggunaan AI mereka dalam suatu kasus? Jika ya, apakah mereka perlu mengungkapkan data pelatihan atau input lain yang digunakan untuk mengkonfigurasi model pembelajaran mesin?
Apakah kurangnya transparansi model pembelajaran mesin yang efektif membuatnya tidak sesuai untuk beberapa penerapan dalam undang-undang? Bagaimana kita bisa memastikan tidak ada bias yang tertanam, yang mencerminkan sentimen seksis atau rasis?
"Sebagai cara untuk membuat proses hukum lebih cepat dan lebih bebas dari kesalahan atau kelalaian, AI adalah alat yang disambut baik demi keadilan. AI mungkin merupakan cara yang lebih efisien untuk menyelesaikan kasus perdata, sekaligus meningkatkan prediktabilitas tanpa menimbulkan moral hazard," ucap dia.
Yang menjadi lebih bermasalah adalah ketika AI digunakan untuk menggantikan pertimbangan manusia, khususnya dalam konteks hukum pidana. AI belum siap untuk ini karena sejumlah alasan. Kemungkinan ada bias dalam data pelatihan yang akan diperkuat dan selanjutnya dilembagakan oleh model pembelajaran mesin yang dihasilkan. ν hay/I-1
Berita Trending
Berita Terkini
- Keren, Satgas TNI Papua Bagikan Baju untuk Anak-anak di Distrik Gome Saat Patroli
- Nelayan Jangan Melaut, BMKG: Siklon 98S Picu Gelombang Tinggi di Jatim dan Bali
- Tiongkok Sampaikan Dukacita Atas Kecelakaan Pesawat Jeju Air
- Serbia Hukum Penjara 14 Tahun Ayah dari Remaja yang Bunuh Teman-temannya di Sekolah
- Pecat Pelatih Fonseca, AC Milan Tunjuk Conceicao