Adakah "Tiga Hukum Robotik" Melindungi Kita? - Pandangan Alternatif

Isi kandungan:

Adakah "Tiga Hukum Robotik" Melindungi Kita? - Pandangan Alternatif
Adakah "Tiga Hukum Robotik" Melindungi Kita? - Pandangan Alternatif

Video: Adakah "Tiga Hukum Robotik" Melindungi Kita? - Pandangan Alternatif

Video: Adakah
Video: Belajar Robot Mulai dari Sini #6 (Part 1): Program Lengan Robot Sederhana 2024, April
Anonim

Sudah 50 tahun sejak Isaac Asimov membuat Three Laws of Robotics yang terkenal - sekumpulan peraturan yang mesti dipatuhi oleh robot yang menghargai diri sendiri. Walaupun pada awalnya hanya alat sastera, ketiga undang-undang itu menjadi resipi asli untuk menghindari "robotokalip". Nasib baik, ada pakar yang mencari pasti apakah jaminan Azimov telah bertahan dalam ujian masa. Malangnya, mereka semua mengatakan tidak.

Sebagai permulaan, mari kita ingat tiga undang-undang yang sama:

Robot tidak boleh membahayakan seseorang atau, dengan tidak aktifnya, membiarkan seseorang itu dicederakan.

Robot mesti mematuhi semua perintah yang diberikan oleh manusia, kecuali apabila perintah ini bertentangan dengan Hukum Pertama.

Robot mesti menjaga keselamatannya sehingga tidak bertentangan dengan Undang-undang Pertama dan Kedua.

Kemudian, Azimov menambahkan undang-undang keempat, atau nol, yang mendahului undang-undang keutamaan yang mendahului yang lain:

Video promosi:

0. Robot tidak boleh membahayakan seseorang, kecuali jika dapat membuktikan bahawa ia akhirnya akan bermanfaat bagi seluruh umat manusia.

Image
Image

Di alam fantasi Asimov, hampir semua robot harus mematuhi undang-undang ini. Ini bukan hanya cadangan atau panduan - undang-undang dimasukkan ke dalam perisian. Di samping itu, peraturan ini tidak dapat dilarang, ditulis ulang atau direvisi.

Seperti yang ditunjukkan oleh Asimov, ketidaksempurnaan, kelemahan dan kekaburan dalam undang-undang ini sering menyebabkan tingkah laku robot yang pelik dan tidak logik. Undang-undang itu terlalu kabur dan sering gagal menentukan dan membezakan "manusia" dengan "robot." Sebagai tambahan, robot boleh melanggar undang-undang secara tidak sedar jika maklumat lengkap tidak tersedia untuk mereka. Juga, robot atau kecerdasan buatan yang terlalu licik harus berada di bawah tekanan untuk tidak memprogram ulang intinya.

Tahun ini adalah tahun 2014, dan banyak perkara biasa dari kehidupan kita sehinggalah khayalan abad yang lalu nampaknya khayalan secara terang-terangan. Banyak orang berpendapat bahawa undang-undang Asimov seharusnya tetap menjadi alat sastera. Tetapi Azimov sendiri menyatakan pada tahun 1981 bahawa undang-undangnya dapat berfungsi. Komputasi! dia menunjukkan perkara berikut:

Apabila seseorang bertanya kepada saya bagaimana rasanya jika ketiga undang-undang robotik saya benar-benar digunakan untuk menentukan tingkah laku robot, jawapannya sudah siap. Sudah tentu, dengan syarat, robot fleksibel dan cukup serba boleh untuk menunjukkan tingkah laku yang berbeza. Jawapan saya adalah ya, ketiga-tiga undang-undang adalah satu-satunya cara manusia dapat berinteraksi dengan robot - atau apa sahaja.

Hampir tiga puluh tahun kemudian, kita semakin hampir dengan kenyataan di mana kita akan mempunyai robot - atau, lebih tepatnya, kecerdasan buatan yang mengendalikannya - fleksibel dan cukup serba boleh untuk berlainan tingkah laku. Ini hanya tinggal masa: ketika mesin mengatasi manusia dalam semua aspek, dari kekuatan fizikal hingga kekuatan imaginasi.

Perkara yang menakutkan adalah bahawa tidak ada margin kesalahan. Sekiranya kecerdasan buatan tidak diprogramkan dengan baik atau tidak peduli kepada manusia, ia akan membawa kepada bencana. Kita perlu memastikan bahawa kecerdasan buatan selamat jika kita mahu bertahan dari kemunculannya."

Jawab soalan "bolehkah tiga undang-undang Azimov membantu?" Dua ahli teori kecerdasan buatan mengambil alih: Ben Herzel (Aidyia Holdings) dan Louis Helm, timbalan pengarah Institut Penyelidikan Perisikan Mesin (MIRI) dan editor eksekutif majalah Rockstar Research. Setelah berbincang dengan mereka, menjadi jelas bahawa undang-undang Asimov pada umumnya tidak dapat mengatasi tugas yang diberikan kepada mereka, dan jika kita perlu membuat AI yang selamat, kita harus mengembangkan sesuatu yang sama sekali berbeza.

Masa depan Asim?

Image
Image

Perbualan dengan Herzel dan Helm bermula dengan apa yang tidak disalah anggap Asimov, meramalkan masa depan, dan di mana dia tersilap.

"Saya rasa jenis robot yang dibayangkan oleh Asimov akan dimungkinkan pada masa depan yang tidak terlalu jauh," balas Herzel. - Namun, di kebanyakan dunia fiksyennya, penulis menganggap bahawa robot humanoid akan menjadi puncak robotik dan kejuruteraan kecerdasan buatan. Itu tidak mungkin. Tidak lama lagi, setelah mencapai status robot Azimov, penciptaan kecerdasan buatan dan robot super akan tersedia."

Oleh itu, dunia khas masa depan dalam cerita Asimov mengenai robot, menurut Herzel, akan serupa dengan dunia di mana kita hidup hari ini, tetapi dengan robot pintar berjalan di jalanan.

"Tidak mungkin ini berlaku, dan jika berlaku, ia tidak akan ditangguhkan lama."

Bagi Helm, robot nampaknya sama sekali berbeza.

"Isu utama, yang, menurut saya, akan menjadi yang paling penting bagi umat manusia, tetap bukan peraturan moral sejumlah besar humanoid yang cerdas, tetapi akhirnya pengembangan bentuk kecerdasan buatan yang maju (di mana-mana badan). Perkembangan kecerdasan super adalah penapis yang mesti dilalui oleh manusia pada akhirnya. Inilah sebabnya mengapa menyusun strategi keselamatan untuk peralihan ini sangat penting. Sepertinya aneh bagi saya bahawa robot, android atau 'emulasi' akan wujud selama sepuluh tahun atau lebih sehingga manusia menghadapi masalah sebenar dalam mengembangkan etika mesin untuk kecerdasan."

Permulaan yang baik?

Image
Image

Memandangkan ketiga-tiga undang-undang robotik Asimov adalah percubaan ikhlas pertama untuk menyelesaikan masalah yang sangat serius - masalah tingkah laku keselamatan mesin dengan kecerdasan buatan - perlu dicari saat-saat di mana undang-undang itu masih boleh berkesan (atau sekurang-kurangnya memberi inspirasi).

"Sejujurnya, saya tidak mendapat inspirasi dalam ketiga undang-undang robotik ini," kata Helm. - Inti etika mesin adalah bahawa mereka tidak memenuhi asas etika mesin. Mungkin ketiga-tiga undang-undang robotik itu terkenal, tetapi pada hakikatnya tidak berguna untuk menggunakannya sebagai asas untuk pengaturcaraan."

“Atas sebab tertentu, sistem etika yang baik - disebut deontologi - telah menjadi asas untuk etika yang tidak boleh dipercayai. Terdapat sebilangan ahli falsafah yang berusaha memperbaiki masalah deontologi, tetapi mereka sebahagian besarnya adalah orang yang sama yang mencari "reka bentuk pintar" dan "campur tangan ilahi." Tidak ada yang memandang serius mereka."

Kelemahan tiga undang-undang robotik Asimov berasal dari yang berikut:

Adversarial sifatnya

Berdasarkan teori etika usang (deontologi)

Jangan juga bekerja dalam fiksyen

Herzel bersetuju:

Tujuan ketiga undang-undang itu adalah melanggarnya dengan cara yang menarik; sebab itulah kisah mereka sangat menghiburkan. Oleh itu, ketiga-tiga undang-undang itu boleh menjadi contoh moral bagaimana tidak melakukannya. Sekiranya kita menganggapnya sebagai asas, pasti akan ada celah di dalamnya”.

Herzel percaya bahawa pada hakikatnya undang-undang ini tidak akan berfungsi, kerana syarat-syarat penyertaannya tidak jelas dan tetap menjadi subjek tafsiran - yang bermaksud mereka sangat bergantung pada mereka yang membuat terjemahan.

Prasangka terhadap robot?

Aspek lain (dan potensi kelemahan) dari Tiga Undang-Undang dalam chauvinisme yang jelas adalah anggapan bahawa robot harus tetap ada, walaupun memiliki kekuatan yang unggul, tunduk pada keperluan dan keutamaan manusia.

"Masyarakat masa depan Azimov terdiri sepenuhnya dari chauvinis: orang mempunyai hak lebih banyak daripada robot. Ketiga undang-undang robotik diciptakan untuk menjaga susunan sosial seperti itu."

Image
Image

Helm melihat masalah ini sedikit berbeza, dengan alasan bahawa jika kita berada dalam keadaan seperti itu, itu sendiri akan menjadi bukti bahawa kita sudah terlalu jauh.

"Saya rasa tidak bijak merancang sistem kecerdasan buatan atau robot yang sedar diri. Dan tidak seperti filem atau buku, di mana pencipta kecerdasan buatan "secara tidak sengaja" datang ke mesin pintar, saya tidak percaya bahawa ini boleh berlaku dalam kehidupan sebenar. Ini akan memerlukan banyak usaha dan pengetahuan. Dan kebanyakan pembangun AI adalah orang yang beretika, jadi mereka tidak akan membuat apa yang disebut oleh ahli falsafah sebagai "makhluk yang berakhlak penting." Terutama apabila mereka dapat dengan mudah membuat mesin canggih yang tidak mempunyai kecenderungan etika."

Helm tidak prihatin tentang keperluan untuk mengembangkan undang-undang asimetri untuk mengatur nilai robot terhadap manusia, dengan alasan (dan berharap) bahawa pencipta kecerdasan buatan masa depan akan bergantung pada beberapa kekangan etika.

Saya rasa manusia terbuat dari atom, jadi secara teori, seorang jurutera dapat membuat bentuk kehidupan sintetik atau robot dengan makna moral. Saya ingin berfikir bahawa tidak ada yang akan melakukan ini. Saya rasa kebanyakan orang juga. Tetapi pasti ada orang bodoh yang ingin dikenali sebagai perintis, walaupun tidak beretika dan bodoh.

Tiga Undang-Undang Robotik 2.0?

Memandangkan kekurangan yang jelas dari tiga undang-undang robotik Asimov, sumber io9 mengajukan soalan: bolehkah mereka diperbaiki atau diperbaiki? Sebenarnya, banyak penulis fiksyen sains telah mencuba ini berkali-kali, mengubahnya selama bertahun-tahun.

"Tidak," kata Helm. "Tidak ada perbaikan untuk ketiga undang-undang itu."

Selain sifatnya yang bertentangan, undang-undang juga bersifat saling bertentangan.

"Saya penyokong pendekatan etika mesin yang lebih bekerjasama, lebih konsisten dan lebih normatif, yang bermaksud mereka dapat pulih dari salah faham atau membetulkan pengaturcaraan yang salah."

Herzel menyetujui tuntutan Helm.

Mendefinisikan sekumpulan ajaran etika sebagai teras etika mesin tidak akan ada harapan sekiranya mesin itu berdasarkan kecerdasan buatan umum yang fleksibel. Sekiranya ia difahami sebagai intuitif, fleksibel, adaptif atau beretika - dalam konteks ini, ajaran etika akan berguna untuk sistem hanya sebagai garis panduan kasar untuk penerapan intuisi etika sendiri. Tetapi dalam hal ini, perintah tidak akan menjadi dasar sistem etika, tetapi hanya aspek. Ini dapat dilihat dalam contoh manusia - prinsip etika yang kita pelajari berfungsi, tetapi bukan sebagai garis panduan, mereka hanya mendorong intuisi dan naluri etika kita. Kami praktikalnya bebas dari prinsip etika."

Bagaimana membuat kecerdasan buatan yang selamat?

Memandangkan ketidakcukupan pendekatan undang-undang, anda boleh bertanya kepada Gertzel dan Helm mengenai pendekatan moden untuk masalah "AI selamat".

"Sangat sedikit penyelidik kecerdasan buatan umum yang percaya bahawa mungkin untuk membuat sistem yang benar-benar selamat," kata Herzel. "Tetapi ini tidak mengganggu majoriti, kerana tidak ada yang dapat dijamin dalam kehidupan ini sama sekali."

Herzel percaya bahawa setelah kita membuat sistem kecerdasan buatan umum atau embrio, kita dapat melakukan penyelidikan dan eksperimen yang akan memberitahu kita lebih banyak mengenai etika AI daripada yang kita tahu.

"Mudah-mudahan, dengan cara ini kita dapat merumuskan teori-teori yang baik mengenai etika kecerdasan buatan yang akan membolehkan kita mempelajari topik ini dengan lebih mendalam. Tetapi sekarang agak sukar untuk berteori mengenai etika AI, kerana kita tidak hanya mempunyai teori yang baik, kita sama sekali tidak mempunyai teori."

"Dan bagi orang-orang yang telah menonton terlalu banyak terminator, proses membuat kecerdasan buatan mungkin kelihatan menakutkan, kerana mereka kehilangan kata" primitif "dalam konteks ini. Namun, perubahan paling radikal berlaku dengan cara ini."

"Ketika sekumpulan manusia pintar mencipta bahasa, mereka tidak mengharapkan pengembangan teori bahasa formal yang kukuh yang dapat membantu meramalkan perubahan masa depan yang disebabkan oleh kemunculan bahasa di masyarakat."

Sebelum mempertimbangkan pengembangan "tiga undang-undang" berikutnya sebagai masalah teknikal, anda perlu melakukan banyak kajian. Dan di sinilah Helm dan Herzel bersetuju.

“Rakan sekerja saya dari MIRI Luc Muelhauser menyimpulkan alasan kami sebagai berikut. Dia mengatakan bahawa masalah sering beralih dari falsafah ke matematik dan kemudian ke kejuruteraan. Falsafah sering diajukan soalan yang tepat, tetapi dengan cara yang paling tidak praktikal. Tidak ada yang dapat mengatakan dengan pasti jika ada kemajuan dalam menyelesaikan masalah tersebut. Sekiranya kita dapat merumuskan semula masalah falsafah yang penting dari akal, pengenalpastian, dan nilai menjadi formula tepat yang dapat ditangani oleh ahli matematik, maka beberapa model dapat dibangun. Suatu hari yang baik akan datang ke bidang kejuruteraan."

Helm mendapati masalah ini sukar untuk sains dan falsafah, tetapi kemajuan mungkin berlaku.

"Saya ragu-ragu bahawa falsafah akan dapat menyelesaikan masalah yang telah berjuang selama lebih dari 3000 tahun. Tetapi kita juga tidak dapat mengambil dan mulai membuat model soalan matematik yang tidak ada secara teknikal. Kami masih memerlukan banyak perkembangan teori dan praktikal."

Disyorkan: