Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif

Isi kandungan:

Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif
Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif

Video: Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif

Video: Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif
Video: Jepang Membuat Robot Setinggi 18 Meter!, Inilah Beberapa Robot Paling Besar Yang Pernah di Buat! 2024, September
Anonim

Saintis komputer Christoph Solge berusaha untuk menghilangkan keperluan untuk peraturan yang mengatur tingkah laku robot. Strateginya adalah untuk memberi mereka tujuan: untuk menjadikan kita lebih hebat. Christophe bekerja di Makmal Inovasi Permainan di Universiti New York. Sasha Maslov menemubual Sold for Quanta Magazine, dari mana kita belajar bahawa kita mungkin tidak layak untuk menahan arus penyatuan teknologi yang tidak dapat dihentikan.

Three Laws of Robotics yang terkenal Isaac Asimov - mengehadkan tingkah laku android dan automata untuk menjaga keselamatan manusia - juga belum selesai. Undang-undang ini pertama kali muncul dalam kisah Asimov pada tahun 1942, dan kemudian dalam karya klasik seperti "I, Robot" dan membunyikan sesuatu seperti ini:

1. Robot tidak boleh membahayakan seseorang atau, dengan tidak aktifnya, membiarkan kerosakan dilakukan kepada seseorang.

2. Robot mesti mematuhi perintah yang diberikan oleh manusia, jika tidak bertentangan dengan Undang-undang Pertama.

3. Robot mesti mempertahankan keberadaannya, jika perlindungan ini tidak bertentangan dengan Undang-undang Pertama atau Kedua.

Sudah tentu, dalam undang-undang ini seseorang dapat menemui banyak percanggahan dan kelemahan (yang sebenarnya, Azimov sendiri gunakan). Pada zaman sekarang perisian canggih dengan pembelajaran mesin dan robotik autonomi, menentukan dan menerapkan etika besi kecerdasan buatan telah menjadi cabaran mendesak bagi organisasi seperti Institut Penyelidikan Perisikan Mesin dan OpenAI.

Christoph Salge mengambil pendekatan yang berbeza. Alih-alih memaksakan definisi falsafah top-down tentang bagaimana ejen tiruan seharusnya atau tidak harus berkelakuan, Salge dan rakannya Daniel Polani meneroka jalan bawah-bawah, atau "apa yang harus dilakukan robot terlebih dahulu," ketika mereka menulis dalam artikelnya "Pemberdayaan sebagai Pengganti untuk Tiga Hukum Robotik." Empowerment, konsep yang lahir di persimpangan cybernetics dan psikologi, menggambarkan motivasi intrinsik ejen untuk menentang dan bekerja di persekitaran pada masa yang sama. "Sebagai organisma, ia mahu bertahan. Dia ingin meninggalkan tanda di dunia,”jelas Salge. Pembersih vakum Roomba, yang diprogramkan untuk mencari stesen pengecasan apabila baterinya rendah, adalah contoh asas "diberdayakan": untuk terus berfungsi di dunia,dia mesti menerima tuduhan dan meneruskan kewujudannya sendiri, iaitu bertahan.

Pemberdayaan mungkin terdengar seperti resipi untuk hasil yang disokong oleh AI yang selamat seperti yang ditakutkan oleh Nick Bostrom: sistem autonomi yang kuat, yang hanya mementingkan kepentingan diri, dan menjadi gila dalam prosesnya. Tetapi Salge, yang mempelajari interaksi sosial manusia-mesin, bertanya: Apa yang berlaku jika ejen yang berkuasa "juga memberi kuasa kepada yang lain? Robot itu bukan sahaja ingin tetap dalam keadaan teratur - ia juga perlu mahu menyokong pasangan manusia."

Video promosi:

Solge dan Polanyi menyedari bahawa teori maklumat menawarkan cara untuk menerjemahkan pengembangan bersama ini ke dalam kerangka matematik untuk agen tiruan yang tidak berfalsafah. "Salah satu kelemahan dari tiga undang-undang robotik adalah undang-undang itu berdasarkan bahasa, dan bahasanya sangat samar," kata Salge. "Kami berusaha mencari sesuatu yang sebenarnya dapat dilakukan."

Sebilangan ahli teknologi percaya bahawa AI adalah ancaman besar, bahkan bencana terhadap kewujudan manusia. Dan kamu?

Saya akan menahan diri. Jadi saya benar-benar percaya bahawa sekarang ada ketakutan terhadap robot dan pengaruh AI yang semakin meningkat. Tetapi saya fikir dalam jangka pendek, kita mungkin lebih prihatin terhadap kemungkinan perubahan pekerjaan, proses membuat keputusan, hilangnya demokrasi, kehilangan privasi. Saya tidak tahu kemungkinan AI yang tidak dapat dihentikan akan muncul dalam masa terdekat. Tetapi walaupun AI ingin mengawal sistem penjagaan kesihatan dan mengeluarkan preskripsi, kita perlu memikirkan masalah etika yang timbul semasa pengoperasiannya.

Bagaimana konsep pemerkasaan dapat membantu kita menangani cabaran ini?

Saya fikir idea memperkasakan hak memenuhi niche. Dia tidak akan membiarkan ejen membiarkan orang itu mati, tetapi setelah anda dapat bertahan di ambang itu, dia akan menyokong niat untuk mewujudkan peluang tambahan bagi orang itu untuk menyatakan dan mempengaruhi dunia. Dalam salah satu buku Asimov, robot akhirnya akan memasukkan semua manusia ke dalam bekas yang selamat. Ini tidak akan diingini. Sekiranya kemampuan kita untuk mempengaruhi dunia terus meningkat, saya rasa akan menjadi matlamat yang lebih menarik untuk dicapai.

Anda menguji idea ejen maya anda dalam persekitaran permainan video. Apa yang berlaku?

Ejen itu, yang didorong oleh haknya sendiri, akan menghindari projektil dan tidak akan jatuh ke dalam lubang, secara amnya, akan mengelakkan keadaan yang boleh menyebabkan kehilangan mobiliti, kematian atau kerosakannya sehingga dapat mengurangkan kebolehoperasiannya. Dia akan bertahan.

Bersama dengan pemain manusia, yang juga dikurniakan hak yang ditingkatkan, kami melihat bahawa robot maya akan menjaga jarak tertentu agar tidak menghalangi pergerakan manusia. Dia tidak akan menghalangi anda, dia tidak akan berdiri di lorong sehingga anda tidak dapat melintas. Dia akan tinggal sedekat mungkin untuk menolong anda. Ini membawa kepada tingkah laku di mana dia boleh mengambil inisiatif dan mengikuti tingkah laku orang lain.

Sebagai contoh, kami membuat senario di mana kami mempunyai penghadang laser yang berbahaya bagi manusia, tetapi selamat untuk robot. Sekiranya orang dalam permainan ini mendekati laser, robot mempunyai lebih banyak insentif untuk menyekat laser. Rangsangan ditingkatkan ketika seseorang berdiri tepat di depan penghalang, seolah-olah berniat melintasinya. Dan robot itu sebenarnya menyekat laser, berdiri di hadapan orang itu.

Adakah ejen-ejen ini memperlihatkan tingkah laku yang tidak disengajakan sama dengan yang berikut dari ketiga undang-undang dalam buku Asimov?

Kelakuannya baik pada mulanya. Contohnya, robot maya memintas lawan yang cuba membunuh anda. Dari semasa ke semasa dia akan melompat ke bawah peluru jika itu satu-satunya cara untuk menyelamatkan anda. Tetapi yang mengejutkan kami terutama sejak awal ialah dia juga sangat takut dengan orang itu.

Sebabnya adalah kerana modelnya "rabun dekat": sebenarnya, dia menganalisis bagaimana urutan tindakan tertentu dalam dua atau tiga langkah dapat mempengaruhi dunia, baik untuk anda dan dia. Oleh itu, pada langkah pertama, kami memprogramkan bahawa pemain bertindak secara rawak. Tetapi dalam praktiknya, ini mengakibatkan hakikat bahawa ejen itu memperlakukan orang itu sebagai sejenis psikopat, yang boleh, misalnya, menembak ejen itu pada bila-bila masa. Oleh itu, ejen harus dengan sangat hati-hati memilih kedudukan di mana orang itu tidak dapat membunuhnya.

Kami perlu memperbaikinya, jadi kami memodelkan anggapan kepercayaan yang disebut. Pada dasarnya, ejen pendamping bertindak dengan anggapan bahawa orang tersebut hanya akan memilih tindakan yang tidak akan membatasi hak hak ejen itu sendiri - mungkin ini adalah model yang lebih sesuai untuk rakan tersebut.

Kami juga menyedari bahawa jika anda mempunyai, katakanlah, 10 poin kesihatan dalam permainan, teman itu tidak begitu peduli jika anda kehilangan lapan atau sembilan poin tersebut - dia bahkan dapat menembak anda sekali, hanya untuk bersenang-senang. Dan kemudian kami menyedari bahawa ada jurang antara dunia di mana kita hidup dan model dalam permainan komputer. Sebaik sahaja kami memodelkan had keupayaan yang disebabkan oleh kehilangan kesihatan, masalah itu hilang. Ini juga dapat diselesaikan dengan membuat model yang tidak terlalu pendek, yang dapat menghitung tindakan beberapa langkah ke masa depan. Sekiranya ejen dapat melihat lebih jauh ke masa depan, dia akan melihat bahawa mempunyai lebih banyak titik kesihatan dapat bermanfaat untuk acara-acara di masa depan.

Dengan mengambil kira bahawa mengubah bilangan titik kesihatan tidak menjejaskan hak lanjutan saya, ejen memutuskan: "Saya menembaknya, saya tidak menembak - apa bezanya?" Dan kadang-kadang ia menembak. Yang tentu saja menjadi masalah. Saya tidak mahu tembakan secara rawak kepada pemain. Kami telah menambah kaedah untuk membuat robot maya sedikit lebih risau tentang keadaan anda daripada keadaannya sendiri.

Bagaimana anda membuat konsep ini tepat?

Sekiranya kita menganggap ejen sebagai sistem kawalan, mereka boleh diuraikan menjadi komponen maklumat: sesuatu berlaku di dunia dan dalam satu cara atau yang lain membimbangkan anda. Kami membincangkan maklumat bukan sebagai perkara yang anda fahami, tetapi sebagai pengaruh apa pun - ia boleh menjadi bahan, sesuatu yang mengalir antara dunia dan anda. Mungkin ada suhu atau nutrien di dalam badan anda. Apa-apa perkara yang melintasi sempadan antara dunia dan ejen membawa maklumat dengan sendirinya. Dengan cara yang sama, ejen dapat mempengaruhi dunia luar dengan pelbagai cara, juga mengeluarkan maklumat ke dalamnya.

Anda boleh menganggap aliran ini sebagai lebar jalur saluran, ini adalah konsep dari teori maklumat. Anda boleh memiliki kekuatan yang luas, hak yang diperpanjang, jika anda dapat melakukan tindakan yang berbeza yang membawa kepada hasil yang berbeza. Sekiranya sesuatu berlaku, anda akan kehilangan kewibawaan anda, kerana kehilangan kapasiti sepadan dengan penurunan kuantitatif lebar jalur antara anda dan persekitaran. Ini adalah idea utama.

Berapa banyak yang perlu diketahui oleh seorang ejen agar kuasa lanjutannya dapat dilaksanakan sepenuhnya?

Hak lanjutan mempunyai kelebihan bahawa mereka dapat diterapkan walaupun anda tidak memiliki pengetahuan sepenuhnya. Ejen itu sangat memerlukan model bagaimana tindakannya akan mempengaruhi dunia, tetapi dia tidak memerlukan pemahaman yang lengkap tentang dunia dan semua kehalusannya. Tidak seperti beberapa pendekatan yang cuba memodelkan segala sesuatu di dunia sebanyak mungkin, dalam kes kita, anda hanya perlu mengetahui bagaimana tindakan anda mempengaruhi persepsi anda sendiri. Anda tidak perlu mempelajari segala-galanya mengenai segala-galanya; anda hanya memerlukan ejen yang meneroka dunia. Dia melakukan sesuatu dan cuba memahami bagaimana tindakannya mempengaruhi dunia. Modelnya berkembang, dan ejen memahami dengan lebih baik dan lebih baik di mana batasan kuasanya meluas.

Anda mengujinya dalam persekitaran maya. Mengapa tidak di dunia nyata?

Halangan utama untuk menskalakan model ini dan meletakkannya dalam robot sebenar adalah kesukaran untuk mengira lebar jalur seorang ejen dan seseorang dalam persekitaran yang kaya seperti dunia nyata untuk masa yang akan datang. Semua proses ini masih belum berkesan. Saya optimis, tetapi setakat ini masalah ini masih bersifat komputasi semata-mata. Oleh itu, kami memeriksa operasi sistem dalam permainan komputer, dalam bentuk yang dipermudahkan.

Sepertinya pemberdayaan, idealnya, akan menjadikan mesin kita sebagai anjing perkhidmatan yang hebat

Saya bahkan mengenali beberapa juruteknik robot yang dengan sengaja memodelkan tingkah laku rakan berasaskan anjing. Saya rasa jika robot memperlakukan kita seperti anjing kita, pada masa depan kita semua boleh bergaul.

Ilya Khel

Disyorkan: