Mengapa Kecerdasan Buatan Menilai Penjenayah Berbahaya? - Pandangan Alternatif

Isi kandungan:

Mengapa Kecerdasan Buatan Menilai Penjenayah Berbahaya? - Pandangan Alternatif
Mengapa Kecerdasan Buatan Menilai Penjenayah Berbahaya? - Pandangan Alternatif

Video: Mengapa Kecerdasan Buatan Menilai Penjenayah Berbahaya? - Pandangan Alternatif

Video: Mengapa Kecerdasan Buatan Menilai Penjenayah Berbahaya? - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Kecerdasan buatan telah membantu menentukan masa depan anda dalam beberapa cara. Semasa anda mencari sesuatu di mesin pencari, gunakan perkhidmatan seperti Netflix, atau bank menilai kesesuaian anda untuk gadai janji. Tetapi apa yang berlaku jika kecerdasan buatan harus menentukan sama ada anda bersalah atau tidak, di mahkamah? Cukup aneh, di beberapa negara ini mungkin sudah berlaku. Baru-baru ini, Hakim Tinggi AS John Roberts ditanya apakah dia dapat membayangkan suatu hari ketika "mesin pintar, dikendalikan oleh kecerdasan buatan, akan membantu dalam mencari bukti atau bahkan dalam membuat keputusan kehakiman." Dia menjawab: "Hari ini sudah tiba, dan dia secara signifikan membantu pihak berkuasa kehakiman dalam proses."

Mungkin Roberts merujuk kepada kes Eric Loomis baru-baru ini, yang dijatuhi hukuman enam tahun penjara atas cadangan perisian hak milik rahsia dari syarikat swasta. Loomis, yang sudah memiliki sejarah jenayah dan dijatuhi hukuman kerana melarikan diri dari polis dengan kereta yang dicuri, kini mendakwa bahawa haknya untuk prosedur dilanggar kerana dia dan wakilnya tidak dapat menyemak atau mencabar algoritma cadangan.

Laporan itu disiapkan oleh perisian Compas, yang dijual oleh Notrpointe ke kapal. Program ini mewujudkan tren baru dalam penyelidikan AI: membantu hakim membuat keputusan "lebih baik" (atau paling tidak berdasarkan data) di mahkamah.

Walaupun butir-butir khusus mengenai kes Loomis tetap ditutup, ia pasti mengandungi carta dan angka yang menentukan kehidupan, tingkah laku, dan kemungkinan kambuh Loomis. Ini termasuk usia, bangsa, identiti jantina, tabiat, sejarah penyemak imbas, dan beberapa ukuran tengkorak. Tidak ada yang tahu dengan lebih tepat.

Telah diketahui bahawa jaksa dalam kes tersebut mengatakan kepada hakim bahwa Loomis menunjukkan "risiko tinggi kecemasan, kekerasan, prosiding sebelum perbicaraan." Ini adalah standard ketika menjatuhkan hukuman. Hakim bersetuju dan memberitahu Loomis bahawa "Compas mengenalinya sebagai orang yang berisiko tinggi terhadap masyarakat."

Mahkamah Agung Wisconsin menjatuhkan hukuman terhadap Loomis, sambil menambah bahawa laporan Compas menambahkan maklumat berharga untuk keputusannya, tetapi menyatakan bahawa tanpa dia, dia menjatuhkan hukuman yang sama. Sudah tentu, anda tidak dapat memeriksa ini dengan pasti. Apa jenis bias kognitif yang ada ketika sistem "pintar" yang maha kuasa seperti Compas terlibat dalam menasihati hakim tentang apa yang harus dilakukan?

Penggunaan tidak diketahui

Video promosi:

Mari kita jujur, tidak ada yang "menyalahi undang-undang" mengenai apa yang dilakukan pengadilan Wisconsin - ini hanyalah contoh. Mahkamah lain boleh dan akan melakukan perkara yang sama.

Malangnya, kami tidak tahu sejauh mana AI dan algoritma lain digunakan dalam hukuman. Dipercayai bahawa beberapa mahkamah "menguji" sistem seperti Kompas dalam percubaan tertutup, tetapi tidak dapat menuntut perkongsian. Terdapat juga persepsi bahawa beberapa startup AI mengembangkan sistem pintar seperti itu.

Image
Image

Namun, penggunaan AI dalam perundangan tidak dimulai atau berakhir dengan hukuman, itu dimulai dengan penyelidikan. Inggeris telah mengembangkan sistem VALCRI, yang melakukan kerja analitik yang memakan masa dalam beberapa saat - menyelinap melalui banyak data seperti teks, laporan makmal dan dokumen polis untuk mengasingkan hal-hal yang mungkin memerlukan penyelidikan lebih lanjut.

Polis West Midlands UK akan menguji VALCRI selama tiga tahun akan datang menggunakan data tanpa nama yang mengandungi lebih daripada 6.5 juta rekod. Ujian serupa sedang dilakukan oleh polis Antwerp di Belgium. Namun, pada masa lalu, projek pembelajaran AI dan mendalam yang melibatkan kumpulan data yang besar telah bermasalah.

Manfaat untuk sebilangan kecil

Teknologi telah memberikan banyak alat bantu yang berguna untuk ruang sidang, dari mesin penyalin hingga pengekstrakan DNA dari cap jari hingga teknik pengawasan yang canggih. Tetapi ini tidak bermaksud bahawa sebarang teknologi adalah peningkatan.

Walaupun penggunaan AI dalam penyelidikan dan keyakinan berpotensi dapat menjimatkan masa dan wang, ia menimbulkan masalah akut. Sebuah laporan Compas dari ProPublica menjelaskan bahawa orang kulit hitam secara keliru dianggap oleh program ini lebih cenderung daripada orang kulit putih. Bahkan sistem AI yang paling canggih dapat mewarisi bias kaum dan jantina mereka yang membuatnya.

Lebih-lebih lagi, apa gunanya mengubah keputusan (sekurang-kurangnya sebagian) mengenai isu-isu yang unik bagi manusia ke algoritma? Terdapat kesukaran tertentu di Amerika Syarikat apabila juri mencuba rakan sebaya mereka. Piawaian undang-undang tidak pernah menjadi penanda aras, sebab itulah perbicaraan juri dianggap sebagai sistem keyakinan yang paling demokratik dan berkesan. Kami melakukan kesilapan, tetapi lama-kelamaan kami mengumpulkan pengetahuan tentang bagaimana tidak membuatnya, menyempurnakan sistem.

Kompas dan sistem serupa mewakili kotak hitam dalam sistem perundangan. Tidak semestinya ada. Sistem perundangan bergantung pada kesinambungan, ketelusan maklumat dan kemampuan untuk mengkaji semula. Masyarakat tidak menginginkan sistem yang mendorong perlumbaan untuk membina startup AI yang membuat penyelesaian pantas, murah, dan eksklusif. AI yang terburu-buru akan mengerikan.

Versi kompas versi terbuka yang diperbaharui akan menjadi peningkatan. Tetapi pertama, standard sistem keadilan harus dinaikkan sebelum kita mulai mengalihkan tanggungjawab memihak kepada algoritma.

ILYA KHEL

Disyorkan: