Robot Pertempuran Akan Datang! - Pandangan Alternatif

Robot Pertempuran Akan Datang! - Pandangan Alternatif
Robot Pertempuran Akan Datang! - Pandangan Alternatif

Video: Robot Pertempuran Akan Datang! - Pandangan Alternatif

Video: Robot Pertempuran Akan Datang! - Pandangan Alternatif
Video: War robots trailer | Трейлер 2024, Mungkin
Anonim

Robot pembunuh sebenar, tanpa henti melakukan tugas dan tidak memerlukan pengawasan manusia, mungkin muncul dalam perkhidmatan dengan tentera dunia dalam setahun, kata para pakar. Untuk meramalkan bahaya di sini, para pakar membincangkan sama ada robot pembunuh dan penggunaannya di medan perang harus dilarang terlebih dahulu.

Image
Image

Robot pembunuh mungkin berkhidmat dengan pasukan dalam setahun jika PBB tidak mengambil langkah terlebih dahulu untuk menyekat penggunaannya, kata Noel Sharkey, profesor di Universiti Sheffield. Pada pendapatnya, mesin-mesin ini pasti akan menyebabkan kematian yang tidak bersalah secara besar-besaran, kerana mereka tidak dapat membezakan seorang tentera dengan orang yang tidak berperang. Kenyataannya datang tepat pada masa ketika komuniti pakar dari 120 negara sedang membincangkan di Geneva potensi risiko yang berkaitan dengan operasi sistem senjata autonomi. Profesor Sharkey percaya: terdapat sedikit perbincangan, sangat mustahak untuk mengadopsi dokumen mengenai pengehadan pengeluaran robot! Jika tidak, setahun kemudian, robot akan benar-benar membanjiri tentera negara maju.

Image
Image

Hari-hari ini di Geneva, perwakilan lebih dari 90 negara di dunia sedang membincangkan bahaya yang timbul dari "sistem senjata autonomi yang mematikan". Salah satu masalah perbincangan penting adalah bagaimana memastikan keselamatan penggunaannya dalam situasi pertempuran? Banyak pakar, termasuk Profesor Sharkey, menegaskan bahawa, di sebalik autonomi sistem, seseorang mesti sentiasa mempunyai kemampuan untuk "mengawal prinsip" ke atasnya - demi keselamatan umat manusia. "Robot masih tidak dapat membuat keputusan seperti manusia," kata Profesor Sharkey. - Dia tidak mampu sepenuhnya. untuk memahami logik permusuhan, mungkin tidak membezakan sekutu dari musuh dan memutuskan kebolehlakuan tindakan tertentu. "Kami tidak boleh membiarkan robot memutuskan apakah, misalnya, kehidupan Osama bin Laden sangat berharga, sehingga 50 wanita tua dan 20 anak mati bersamanya,Sharkey berkata. - Robot tidak peduli. Keputusan mendasar, misalnya, mengenai pemilihan matlamat mesti dibuat oleh seseorang. " Menurut Profesor Sharkey, jika keputusan seperti itu diserahkan kepada robot, "akibat penggunaannya tidak akan lebih buruk daripada penggunaan senjata kimia."

Image
Image

Profesor Sharkey adalah salah satu dari 57 pakar yang menandatangani surat terbuka yang ditujukan kepada Universiti Korea Selatan, di mana para pakar memprotes program pengembangan senjata pintar. Korea Institute of Science and High Technology Kaist sedang melancarkan program ini dengan pengeluar peralatan ketenteraan Hanwa Systems, dan berita itu telah menggegarkan komuniti saintifik. "Sebuah universiti, institusi ilmiah, tidak dapat melakukan ini dari sudut moral," kata Profesor Sharkey, dengan siapa penandatangan yang lain setuju sepenuhnya.

Menurut para pakar, robot pembunuh automatik akan membuka Pandora's Box, merevolusikan cara perang.

Video promosi:

Perwakilan dari Kaist Institute telah menjawab surat terbuka itu, meyakinkan rakan-rakan mereka bahawa mereka tidak mempunyai rancangan untuk membuat droid dalam gaya Skynet.

Image
Image

Perwakilan Institut Keist meyakinkan rakan-rakan mereka bahawa, sebagai institusi akademik, mereka "sangat menghargai standard etika dan moral sejagat" dan tidak berniat untuk mengembangkan tentera robot yang beroperasi di luar kawalan manusia. Sehingga kini, Kaist Institute hanya menjalankan penyelidikan di kawasan ini. Mengenai hal ini, penulis surat terbuka tenang dan tidak memboikot rakan sekerja mereka. Walau bagaimanapun, persoalan sama ada manusia akan dapat menyetujui prinsip umum kawalan sepenuhnya terhadap tindakan robot tempur masih terbuka. Sementara itu, hari ini sama sekali tidak penting dalam teori. Hari ini, robot yang sangat berfungsi sudah menjadi mekanisme yang kompleks sehingga pakar tidak memahami sepenuhnya bagaimana kecerdasan buatan mereka berfungsi. Dan tanpa memahami sepenuhnya perkara ini, mereka tidak dapat meramalkanbila betul ia boleh gagal. "Sekiranya umat manusia ditakdirkan untuk dimusnahkan, maka kemungkinan besar kecerdasan buatan akan memainkan peranan penting dalam proses ini," kata salah seorang peserta dalam persidangan di Geneva. Menurut Elon Musk, kecerdasan buatan hari ini membawa lebih banyak ancaman kepada manusia daripada Korea Utara. Musk yakin bahawa robot harus berada di bawah kendali ketat manusia secara terus-menerus, dan telah berulang kali meminta pemerintah dari berbagai negara untuk mengembangkan peraturan yang jelas untuk mengendalikan sistem dengan kecerdasan buatan.daripada Korea Utara. Musk yakin bahawa robot mesti berada di bawah kendali ketat manusia secara terus-menerus, dan telah berulang kali meminta pemerintah dari berbagai negara untuk mengembangkan peraturan yang jelas untuk mengawal sistem dengan kecerdasan buatan.daripada Korea Utara. Musk yakin bahawa robot harus berada di bawah kendali ketat manusia secara terus-menerus, dan telah berulang kali meminta pemerintah dari berbagai negara untuk mengembangkan peraturan yang jelas untuk mengendalikan sistem dengan kecerdasan buatan.

Varvara Lyutova

Disyorkan: