Nasional Mondial Ekonomi Megapolitan Olahraga Rona The Alun-Alun Kupas Splash Wisata Perspektif Wawancara Foto Video Infografis

“Bot" Telah Banyak Membantu Proses Hukum di Luar Persidangan

Foto : Istimewa
A   A   A   Pengaturan Font

Menurut sebuah studi ProPublica, alat penilaian seperti itu tampak bias terhadap tahanan kulit hitam di AS, secara tidak proporsional menandai mereka secara signifikan lebih mungkin untuk melakukan pelanggaran daripada tahanan kulit putih.

Equivant, perusahaan yang mengembangkan COMPAS, berusaha menyangkal analisis ProPublica dan menolak kesimpulannya tentang bias rasial.

Terlepas dari itu, menggunakan AI dalam konteks ini dapat mencerminkan, atau bahkan memperkuat, bias yang melekat pada data sistem peradilan pidana. Data yang digunakan untuk melatih model pembelajaran mesin didasarkan pada tingkat penangkapan dan hukuman aktual yang mungkin miring terhadap beberapa populasi. Dengan demikian hal itu dapat mengabadikan ketidakadilan di masa lalu, atau lebih buruk lagi, secara salah menyelubungi mereka dengan objektivitas yang dihasilkan komputer.

Permasalahan-permasalah yang harus dijawab, kata Stepka, adalah haruskah terdakwa pidana memiliki hak untuk mengakses alat AI jika membantu kasus mereka? Apakah pengacara perlu mengungkapkan penggunaan AI mereka dalam suatu kasus? Jika ya, apakah mereka perlu mengungkapkan data pelatihan atau input lain yang digunakan untuk mengkonfigurasi model pembelajaran mesin?

Apakah kurangnya transparansi model pembelajaran mesin yang efektif membuatnya tidak sesuai untuk beberapa penerapan dalam undang-undang? Bagaimana kita bisa memastikan tidak ada bias yang tertanam, yang mencerminkan sentimen seksis atau rasis?
Halaman Selanjutnya....


Redaktur : Ilham Sudrajat
Penulis : Haryo Brono

Komentar

Komentar
()

Top