Robot Pembunuh? Berhenti, Walaupun Robot Yang Bagus Sangat Tidak Dapat Diramalkan - Pandangan Alternatif

Isi kandungan:

Robot Pembunuh? Berhenti, Walaupun Robot Yang Bagus Sangat Tidak Dapat Diramalkan - Pandangan Alternatif
Robot Pembunuh? Berhenti, Walaupun Robot Yang Bagus Sangat Tidak Dapat Diramalkan - Pandangan Alternatif

Video: Robot Pembunuh? Berhenti, Walaupun Robot Yang Bagus Sangat Tidak Dapat Diramalkan - Pandangan Alternatif

Video: Robot Pembunuh? Berhenti, Walaupun Robot Yang Bagus Sangat Tidak Dapat Diramalkan - Pandangan Alternatif
Video: 5 Robot Pembunuh yang Siap Memusnahkan Umat Manusia di Masa Depan! 2024, Oktober
Anonim

Pemimpin lebih daripada seratus syarikat AI terkemuka di dunia sangat prihatin dengan pembangunan "robot pembunuh". Dalam surat terbuka kepada PBB, para pemimpin perniagaan ini, termasuk Elon Musk dari Tesla dan pengasas DeepMind Google, memberi amaran bahawa penggunaan teknologi senjata autonomi dapat diadopsi oleh pengganas dan orang-orang yang berpura-pura, atau diretas ke tahap tertentu.

Tetapi ancaman sebenarnya jauh lebih serius - dan bukan hanya salah laku manusia, tetapi juga kesalahan mesin. Pemeriksaan sistem yang kompleks menunjukkan bahawa mereka dapat bertindak lebih sukar diprediksi daripada yang dapat disimpulkan dari jumlah tindakan individu. Di satu pihak, ini bermaksud bahawa masyarakat manusia boleh berkelakuan sangat berbeza daripada yang anda jangkakan dengan mengkaji tingkah laku individu. Sebaliknya, perkara yang sama berlaku untuk teknologi. Malah ekosistem program kecerdasan buatan sederhana - yang kita namakan bot bodoh, baik - dapat mengejutkan kita. Bot individu pun boleh berkelakuan buruk.

Unsur-unsur individu yang membentuk sistem yang kompleks, seperti pasaran ekonomi atau cuaca global, cenderung untuk tidak berinteraksi secara sederhana. Ini menjadikan sistem ini sangat sukar untuk dimodelkan dan difahami. Sebagai contoh, walaupun setelah bertahun-tahun melakukan penyelidikan iklim, mustahil untuk meramalkan tingkah laku cuaca jangka panjang. Sistem ini sensitif terhadap perubahan terkecil kerana ia bertindak balas secara meletup. Sangat sukar untuk mengetahui keadaan sebenar sistem sedemikian pada waktu tertentu. Semua ini menjadikan sistem ini secara dalaman tidak dapat diramalkan.

Semua prinsip ini berlaku untuk sekumpulan besar orang yang bertindak dengan cara mereka sendiri, sama ada masyarakat manusia atau kumpulan bot AI. Para saintis baru-baru ini mengkaji sejenis sistem kompleks yang menggunakan bot yang baik untuk mengedit artikel Wikipedia secara automatik. Bot yang pelbagai ini direka, ditulis dan digunakan oleh editor Wikipedia yang dipercayai, dan perisian yang mendasarinya adalah sumber terbuka dan tersedia untuk semua orang. Secara individu, mereka mempunyai tujuan bersama untuk meningkatkan ensiklopedia. Walau bagaimanapun, tingkah laku kolektif mereka terbukti tidak berkesan.

Peraturan dan konvensyen yang mantap berada di tengah-tengah bagaimana bot ini berfungsi di Wikipedia, tetapi kerana laman web ini tidak mempunyai sistem kawalan pusat, tidak ada koordinasi yang berkesan antara orang-orang yang menjalankan bot yang berbeza. Hasilnya menunjukkan beberapa bot yang membatalkan pengeditan antara satu sama lain selama beberapa tahun dan tidak ada yang memerhatikan. Dan tentu saja, kerana bot ini tidak belajar sama sekali, mereka juga tidak menyedari.

Bot ini direka untuk mempercepat proses penyuntingan. Tetapi perbezaan kecil dalam reka bentuk bot, atau antara orang yang menggunakannya, boleh menyebabkan pembaziran sumber daya yang besar dalam "perang edit" yang sedang berlangsung yang dapat diselesaikan dengan lebih cepat oleh para editor.

Para penyelidik juga mendapati bahawa bot berkelakuan berbeza dalam versi bahasa Wikipedia yang berbeza. Sepertinya peraturannya hampir sama, tujuannya sama, teknologinya serupa. Tetapi di Wikipedia berbahasa Jerman, kerjasama bot jauh lebih efisien dan produktif daripada, misalnya, dalam bahasa Portugis. Ini hanya dapat dijelaskan oleh perbezaan antara editor manusia yang menjalankan bot ini dalam persekitaran yang berbeza.

Video promosi:

Kekeliruan eksponensial

Bot dari Wikipedia tidak mempunyai autonomi yang luas dan sistem tidak lagi berfungsi sesuai dengan tujuan bot individu. Tetapi Yayasan Wikimedia merancang untuk menggunakan AI yang akan memberikan lebih banyak autonomi kepada bot ini. Dan ini mungkin menyebabkan tingkah laku yang lebih sukar dijangka.

Contoh yang baik dari apa yang boleh berlaku ditunjukkan oleh bot yang dirancang untuk bercakap dengan orang apabila terpaksa berkomunikasi antara satu sama lain. Kami tidak lagi terkejut dengan tindak balas pembantu peribadi seperti Siri. Tetapi minta mereka untuk berkomunikasi antara satu sama lain dan mereka akan mula berkelakuan dengan cara yang tidak dijangka, berdebat dan saling menghina.

Semakin besar sistem dan semakin autonomi setiap bot, perilaku masa depan sistem itu akan menjadi lebih kompleks dan tidak dapat diramalkan. Wikipedia adalah contoh sebilangan besar bot yang agak sederhana di tempat kerja. Contoh chatbot adalah contoh sebilangan kecil bot yang agak rumit dan inventif - dalam kedua-dua kes, konflik yang tidak dijangka timbul. Kerumitan, dan oleh itu tidak dapat diramalkan, berkembang secara eksponen apabila keperibadian ditambahkan ke dalam sistem. Oleh itu, apabila sistem dengan sebilangan besar robot yang sangat kompleks muncul di masa depan, ketidakpastiannya akan melampaui imaginasi kita.

Kegilaan yang terik

Kereta yang memandu sendiri, misalnya, berjanji akan membuat kejayaan dalam kecekapan dan keselamatan jalan raya. Tetapi kita belum tahu apa yang akan berlaku apabila kita mempunyai sistem kenderaan autonomi sepenuhnya liar. Mereka boleh berkelakuan berbeza walaupun dalam kumpulan kecil kenderaan individu dalam persekitaran terkawal. Dan tingkah laku yang lebih tidak dapat diramalkan dapat menampakkan dirinya ketika kereta memandu sendiri, "dilatih" oleh orang yang berlainan di tempat yang berbeza, mula berinteraksi antara satu sama lain.

Orang dapat menyesuaikan diri dengan peraturan dan konvensi baru dengan cepat, tetapi mereka mengalami kesukaran untuk beralih antara sistem. Ejen buatan boleh menjadi lebih sukar. Sebagai contoh, jika sebuah kereta "dilatih di Jerman" pergi ke Itali, misalnya, kita tidak tahu bagaimana ia akan menguasai konvensyen budaya yang tidak tertulis yang diikuti oleh banyak kereta "terlatih di Itali" yang lain. Sesuatu yang biasa seperti melintasi persimpangan boleh menjadi berisiko mematikan kerana kita tidak tahu sama ada kereta akan berinteraksi dengan betul atau jika mereka akan berkelakuan tidak dapat diramalkan.

Sekarang fikirkan tentang robot pembunuh yang mengganggu Musk dan rakannya. Satu robot pembunuh boleh menjadi sangat berbahaya di tangan yang salah. Bagaimana dengan sistem robot pembunuh yang tidak dapat diramalkan? Berfikir untuk diri sendiri.

Ilya Khel

Disyorkan: