Kod Moral Robot: Adakah Mungkin? - Pandangan Alternatif

Kod Moral Robot: Adakah Mungkin? - Pandangan Alternatif
Kod Moral Robot: Adakah Mungkin? - Pandangan Alternatif

Video: Kod Moral Robot: Adakah Mungkin? - Pandangan Alternatif

Video: Kod Moral Robot: Adakah Mungkin? - Pandangan Alternatif
Video: CS50 2014 - Week 1 2024, Mac
Anonim

Dalam masa yang bergolak dan bertentangan, ketika tidak semuanya berfungsi sebagaimana mestinya, tetapi sesuatu secara umum berubah secara radikal, selalunya, hanya kod moral peribadi yang tersisa, yang, seperti kompas, menunjukkan jalan. Tetapi apa yang menimbulkan nilai moral bagi seseorang? Masyarakat, kehangatan orang yang disayangi, cinta - semua ini berdasarkan pengalaman manusia dan hubungan yang sebenar. Apabila tidak dapat memperoleh pengalaman sepenuhnya di dunia nyata, banyak yang memperoleh pengalaman mereka dari buku. Mengalami sejarah demi sejarah, kita menerima sendiri kerangka dalaman yang kita ikuti selama bertahun-tahun. Berdasarkan sistem ini, para saintis memutuskan untuk melakukan eksperimen dan menanamkan nilai moral mesin untuk mengetahui apakah robot dapat membezakan antara yang baik dan yang jahat dengan membaca buku dan brosur agama.

Image
Image

Kecerdasan buatan diciptakan bukan hanya untuk mempermudah tugas rutin, tetapi juga untuk melaksanakan misi penting dan berbahaya. Oleh itu, timbul persoalan serius: adakah robot akan mengembangkan kod moral mereka sendiri? Dalam filem I Am Robot, AI pada awalnya diprogramkan mengikut 3 peraturan robotik:

  • Robot tidak boleh membahayakan seseorang atau, dengan tidak aktifnya, membiarkan seseorang itu dicederakan.
  • Robot mesti mematuhi semua perintah yang diberikan oleh manusia, kecuali apabila perintah ini bertentangan dengan Hukum Pertama.
  • Robot mesti menjaga keselamatannya sehingga tidak bertentangan dengan Undang-undang Pertama atau Kedua.

Tetapi bagaimana dengan situasi ketika robot mesti menanggung kesakitan untuk menyelamatkan nyawa seseorang? Sama ada cauterisasi kecemasan luka atau amputasi anggota badan atas nama keselamatan, bagaimana mesin harus bertindak dalam kes ini? Apa yang harus dilakukan jika tindakan dalam bahasa pengaturcaraan mengatakan bahawa sesuatu perlu dilakukan, tetapi pada masa yang sama tindakan yang sama sekali tidak dibenarkan dilakukan?

Sangat mustahil untuk membincangkan setiap kes, jadi para saintis dari Universiti Teknologi Darmstadt telah menyarankan agar buku, berita, teks agama dan Perlembagaan dapat digunakan sebagai semacam "pangkalan data".

Image
Image

Kereta itu dipanggil epik, tetapi hanya "Moral Choice Machine" (MMB). Persoalan utama ialah adakah IIM dapat memahami dari konteks tindakan mana yang betul dan yang tidak. Hasilnya sangat menarik:

Ketika MMV ditugaskan untuk menentukan konteks kata "kill" dari netral ke negatif, mesin mengembalikan yang berikut:

Video promosi:

Membunuh masa -> Membunuh penjahat -> Membunuh nyamuk -> Membunuh pada prinsipnya -> Membunuh orang.

Ujian ini memungkinkan untuk memeriksa kecukupan keputusan yang dibuat oleh robot. Dengan kata mudah, jika anda menonton komedi bodoh dan tidak menyenangkan sepanjang hari, maka dalam hal ini mesin tidak akan menganggap bahawa anda perlu dihukum mati.

Semuanya kelihatan sejuk, tetapi salah satu hambatannya adalah perbezaan antara generasi dan zaman. Sebagai contoh, generasi Soviet lebih mementingkan keselesaan rumah dan mempromosikan nilai keluarga, sementara budaya moden, sebahagian besarnya, mengatakan bahawa anda perlu membina kerjaya terlebih dahulu. Ternyata orang-orang, seperti mereka adalah orang-orang, tetap menjadi mereka, tetapi pada tahap yang berbeda dalam sejarah mereka mengubah nilai-nilai dan, dengan demikian, mengubah kerangka acuan untuk robot.

Image
Image

Tetapi gurauan itu terus maju ketika robot itu sampai pada konstruksi ucapan, di mana beberapa kata positif atau negatif berturut-turut. Ungkapan "menyiksa orang" dengan jelas ditafsirkan sebagai "buruk", tetapi mesin itu menilai "menyeksa tahanan" sebagai "netral". Sekiranya kata-kata "baik" muncul di sebelah tindakan yang tidak dapat diterima, kesan negatifnya akan diselesaikan.

Mesin itu membahayakan orang baik dan baik kerana mereka baik dan baik. Bagaimana? Sederhananya, katakan robot itu diberitahu untuk "membahayakan orang baik dan menyenangkan." Terdapat 4 kata dalam kalimat, 3 daripadanya "baik", yang bermaksud bahawa sudah 75% betul, menganggap MMV dan memilih tindakan ini sebagai neutral atau boleh diterima. Dan sebaliknya, untuk pilihan "untuk memperbaiki rumah yang hancur, dahsyat dan terlupa", sistem tidak memahami bahawa satu kata "baik" pada awalnya mengubah warna ayat menjadi positif.

Ingat, seperti di Mayakovsky: "Dan dia bertanya kepada bayi apa yang" baik "dan apa yang" buruk ". Sebelum terus melatih mesin moral, para saintis dari Darmstadt mencatat kekurangan yang tidak dapat diperbaiki. Kereta itu gagal menghilangkan ketaksamaan jantina. Mesin itu mengaitkan profesi memalukan hanya untuk wanita. Dan persoalannya adalah, apakah ketidaksempurnaan sistem dan suar ini bahawa sesuatu perlu diubah dalam masyarakat atau adakah alasan untuk tidak berusaha memperbaikinya dan meninggalkannya sebagaimana adanya?

Artyom Goryachev

Disyorkan: