Membina Mesin Moral: Siapa Yang Akan Bertanggungjawab Terhadap Etika Kereta Memandu Sendiri? - Pandangan Alternatif

Isi kandungan:

Membina Mesin Moral: Siapa Yang Akan Bertanggungjawab Terhadap Etika Kereta Memandu Sendiri? - Pandangan Alternatif
Membina Mesin Moral: Siapa Yang Akan Bertanggungjawab Terhadap Etika Kereta Memandu Sendiri? - Pandangan Alternatif

Video: Membina Mesin Moral: Siapa Yang Akan Bertanggungjawab Terhadap Etika Kereta Memandu Sendiri? - Pandangan Alternatif

Video: Membina Mesin Moral: Siapa Yang Akan Bertanggungjawab Terhadap Etika Kereta Memandu Sendiri? - Pandangan Alternatif
Video: Kursus Teori Etika dan Moral: Egoisme (Dengan sarikata/Subbed Version) 2024, April
Anonim

Anda memandu di sepanjang jalan raya ketika seorang lelaki berlari ke jalan yang sibuk. Kereta bergerak di sekitar anda, dan anda mempunyai masa sesaat untuk membuat keputusan: cuba mengelakkan seseorang dan menimbulkan risiko kemalangan? Terus memandu dengan harapan dia akan mempunyai masa? Untuk brek? Bagaimana anda menilai kemungkinan anak diikat di tempat duduk belakang? Dalam banyak cara, ini adalah "dilema moral" klasik, masalah troli. Dia mempunyai sejuta pilihan berbeza yang membolehkan anda mengenal pasti prasangka manusia, tetapi intinya adalah sama.

Anda berada dalam situasi di mana hidup dan mati dipertaruhkan, tidak ada pilihan mudah, dan keputusan anda, sebenarnya, akan menentukan siapa yang hidup dan siapa yang mati.

Dilema troli dan kecerdasan buatan

Makalah baru MIT, yang diterbitkan minggu lalu dalam jurnal Nature, berusaha mencari jalan keluar untuk mengatasi masalah troli dengan merekrut berjuta-juta sukarelawan. Eksperimen ini bermula pada tahun 2014 dan berjaya, menerima lebih dari 40 juta respons dari 233 negara, menjadikannya salah satu kajian moral terbesar yang pernah dilakukan.

Seseorang dapat membuat keputusan seperti itu secara tidak sedar. Adalah sukar untuk menimbang semua sistem etika dan prasyarat moral ketika kereta anda berlumba di jalan raya. Tetapi di dunia kita, keputusan semakin dibuat oleh algoritma, dan komputer dapat bertindak balas dengan lebih cepat daripada yang kita lakukan.

Situasi hipotetis dengan kereta memandu sendiri bukanlah satu-satunya keputusan moral yang mesti dibuat oleh algoritma. Algoritma perubatan akan memilih siapa yang mendapat rawatan dengan sumber yang terhad. Drone automatik akan memilih seberapa banyak "kerosakan cagaran" yang dapat diterima dalam satu perikatan tentera.

Video promosi:

Tidak semua prinsip moral sama

"Penyelesaian" untuk masalah troli sama seperti masalahnya sendiri. Bagaimanakah mesin membuat keputusan moral apabila asas moral dan etika tidak diterima secara universal dan mungkin tidak mempunyai penyelesaian? Siapa yang dapat menentukan sama ada algoritma melakukan betul atau salah?

Pendekatan crowdsourcing yang diguna pakai oleh saintis Moral Machine cukup pragmatik. Pada akhirnya, bagi orang ramai untuk menerima kereta memandu sendiri, ia mesti menerima asas moral di sebalik keputusan mereka. Tidak akan begitu baik sekiranya ahli etika atau peguam mencari jalan keluar yang tidak dapat diterima atau tidak dapat diterima oleh pemandu biasa.

Hasilnya membawa kepada kesimpulan yang ingin tahu bahawa keutamaan moral (dan oleh itu keputusan algoritma yang dapat dibuat oleh manusia) bergantung pada di mana anda berada.

Pertama sekali, saintis menyedari bahawa mustahil untuk mengetahui kekerapan atau sifat keadaan ini dalam kehidupan sebenar. Orang yang sering kali terlibat dalam kemalangan tidak dapat mengatakan apa yang sebenarnya berlaku, dan pelbagai situasi yang mungkin menghalangi pengkelasan sederhana. Oleh itu, agar masalah itu dapat dilacak, ia harus dipecah menjadi senario yang dipermudahkan, mencari peraturan dan prinsip moral sejagat.

Semasa anda membuat tinjauan, anda akan disajikan dengan tiga belas soalan yang memerlukan pilihan ya atau tidak yang sederhana, cuba menyempitkan jawapan kepada sembilan faktor.

Sekiranya kereta bertukar menjadi lorong lain atau terus bergerak? Sekiranya anda menyelamatkan orang muda, bukan yang tua? Wanita atau lelaki? Haiwan atau manusia? Sekiranya anda cuba menyelamatkan sebanyak mungkin nyawa, atau adakah satu anak "bernilai" dua orang tua? Selamatkan penumpang di dalam kereta, bukan pejalan kaki? Mereka yang tidak mengikut peraturan, atau mereka yang tidak mengikut peraturan? Sekiranya anda menyelamatkan orang yang secara fizikal lebih kuat? Bagaimana dengan orang yang mempunyai status sosial yang lebih tinggi, seperti doktor atau ahli perniagaan?

Dalam dunia hipotesis yang keras ini, seseorang harus mati, dan anda akan menjawab setiap soalan ini - dengan semangat yang berbeza-beza. Namun, membuat keputusan ini juga memperlihatkan norma dan bias budaya yang sangat tertanam.

Pemprosesan kumpulan data besar yang disurvei oleh saintis menghasilkan peraturan universal dan pengecualian yang ingin tahu. Tiga faktor yang paling dominan, rata-rata di seluruh populasi, adalah bahawa setiap orang lebih suka menyelamatkan lebih banyak nyawa daripada lebih sedikit, orang daripada binatang, dan muda daripada tua.

Perbezaan wilayah

Anda boleh bersetuju dengan perkara ini, tetapi semakin mendalam anda memikirkannya, kesimpulan moral akan semakin merisaukan. Lebih ramai responden memilih untuk menyelamatkan penjenayah daripada kucing, tetapi secara umum mereka lebih suka menyelamatkan anjing daripada penjenayah. Rata-rata dunia, menjadi tua dinilai lebih tinggi daripada kehilangan tempat tinggal, tetapi orang kehilangan tempat tinggal kurang diselamatkan daripada orang gemuk.

Dan peraturan ini tidak universal: responden dari Perancis, Inggeris, dan Amerika Syarikat lebih memilih yang muda, sementara responden dari China dan Taiwan lebih bersedia menyelamatkan orang tua. Responden dari Jepun lebih suka menyelamatkan pejalan kaki daripada penumpang, sementara di China lebih suka penumpang daripada pejalan kaki.

Para penyelidik mendapati mereka dapat mengelompokkan respons berdasarkan negara ke dalam tiga kategori: "Barat," terutama Amerika Utara dan Eropah, di mana moralitas didasarkan pada doktrin Kristian; "Timur" - Jepun, Taiwan, Timur Tengah, di mana Konfusianisme dan Islam mendominasi; Negara-negara "Selatan", termasuk Amerika Tengah dan Selatan, bersama dengan pengaruh budaya Perancis yang kuat. Terdapat pilihan yang lebih kuat untuk pengorbanan wanita di segmen Selatan daripada tempat lain. Di segmen Timur, terdapat kecenderungan yang lebih besar untuk menyelamatkan orang muda.

Menapis mengikut atribut responden yang berbeza memberikan pilihan menarik yang tidak berkesudahan. Responden “sangat beragama” tidak mungkin lebih suka menyelamatkan haiwan, tetapi kedua-dua responden agama dan bukan agama menyatakan pilihan yang hampir sama untuk menyelamatkan orang dengan status sosial yang tinggi (walaupun boleh dikatakan bahawa ini bertentangan dengan beberapa doktrin agama). Lelaki dan wanita lebih suka menyelamatkan wanita, tetapi lelaki kurang cenderung untuk melakukannya.

Soalan yang tidak dijawab

Tidak ada yang mendakwa bahawa penyelidikan ini entah bagaimana "menyelesaikan" semua masalah moral yang berat ini. Penulis kajian menyatakan bahawa data dalam talian sumber khalayak melibatkan berat sebelah. Tetapi walaupun dengan ukuran sampel yang besar, jumlah soalan adalah terhad. Bagaimana jika risiko berubah bergantung pada keputusan yang anda buat? Bagaimana jika algoritma dapat mengira bahawa anda hanya mempunyai peluang 50 persen untuk membunuh pejalan kaki, memandangkan kelajuan anda bergerak?

Edmond Awad, salah seorang penulis kajian, menyatakan dengan berhati-hati tentang terlalu banyak menafsirkan hasilnya. Perbincangan, menurut pendapatnya, harus mengalir ke analisis risiko - siapa yang berisiko lebih kurang - bukannya memutuskan siapa yang mati dan siapa yang tidak.

Tetapi hasil kajian yang paling penting adalah perbincangan yang meluas di tanahnya. Oleh kerana algoritma mula membuat keputusan yang lebih dan penting yang mempengaruhi kehidupan orang, sangat penting kita mengadakan perbincangan berterusan mengenai etika AI. Merancang "hati nurani buatan" mesti merangkumi pendapat semua orang. Walaupun jawapannya mungkin tidak selalu mudah dijumpai, yang terbaik adalah berusaha untuk membentuk kerangka moral untuk algoritma dengan tidak membenarkan algoritma membentuk dunia sendiri tanpa kawalan manusia.

Disyorkan: