Google Tidak Mahu Membuat Skynet Satu Hari, Jadi Ia Membuat Pertukaran Untuk AI - Pandangan Alternatif

Google Tidak Mahu Membuat Skynet Satu Hari, Jadi Ia Membuat Pertukaran Untuk AI - Pandangan Alternatif
Google Tidak Mahu Membuat Skynet Satu Hari, Jadi Ia Membuat Pertukaran Untuk AI - Pandangan Alternatif

Video: Google Tidak Mahu Membuat Skynet Satu Hari, Jadi Ia Membuat Pertukaran Untuk AI - Pandangan Alternatif

Video: Google Tidak Mahu Membuat Skynet Satu Hari, Jadi Ia Membuat Pertukaran Untuk AI - Pandangan Alternatif
Video: Terminator stars’ warning over modern A.I. 2024, Julai
Anonim

Terdapat dua sisi lawan utama dalam soalan dan perbincangan mengenai masa depan kecerdasan buatan. Di satu sudut adalah syarikat-syarikat seperti Google, Facebook, Amazon, dan Microsoft melabur secara agresif dalam teknologi untuk menjadikan sistem AI lebih pintar; di sisi lain adalah pemikir hebat zaman kita seperti Elon Musk dan Stephen Hawking yang percaya bahawa pengembangan AI mirip dengan "mantera syaitan".

Salah satu syarikat AI yang paling maju, DeepMind, yang dimiliki oleh Google, telah membuat langkah-langkah keselamatan sekiranya seseorang perlu "mengambil alih robot, yang kegagalannya dapat menyebabkan akibat yang tidak dapat diperbaiki." Kita boleh menganggap bahawa kita bercakap tentang … "membunuh semua orang." Sudah tentu, pada kenyataannya, langkah yang diambil bukanlah petunjuk kiamat yang mungkin berlaku, melainkan mengenai langkah-langkah keselamatan yang berkaitan dengan robot pintar yang berfungsi dan akan berfungsi di masa depan di pelbagai kilang dan kilang.

Dokumen yang diterbitkan dengan preskripsi adalah karya bersama DeepMind dan Oxford Institute for the Future of Humanity, yang, seperti namanya, menangani isu-isu yang akan memungkinkan manusia ini memasuki masa depan. Selama beberapa dekad, pengarah pengasas institut Nick Bostrom berbicara dengan jelas mengenai kemungkinan bahaya perkembangan kecerdasan buatan dan menulis lebih daripada satu buku mengenai perkara ini, di mana dia membincangkan akibat mencipta robot super intelijen.

Panduan yang sedang kita bicarakan hari ini, yang dijuluki "Ejen Cacat Aman," menerangkan cara menonaktifkan AI jika ia mula melakukan sesuatu yang tidak mahu dilakukan oleh pengendali manusia. Karya ini terdiri daripada pelbagai pengiraan dan formula yang kemungkinan besar tidak akan kita fahami oleh 99 peratus daripada kita. Oleh itu, secara sederhana, kita bercakap mengenai "butang merah" yang dapat mematikan AI.

Anda mungkin tertawa dan tertanya-tanya, tetapi pelopor robotik dan AI menonton filem sci-fi yang sama seperti yang kita buat. Yang di mana robot pernah mengetahui cara mengabaikan perintah shutdown. Jadi sekarang kita akan bersedia untuk ini. Dokumen yang diterbitkan menerangkan kaedah dan penyelesaian untuk memastikan bahawa "ejen yang dapat dilatih" (baca AI) tidak dapat belajar mengabaikan atau mencegah kesan persekitaran luaran atau pengendali manusia.

Ini mungkin kelihatan berlebihan, terutamanya apabila anda menganggap bahawa AI yang paling maju sekarang hanya bagus dalam permainan papan. Namun, Bostrom percaya bahawa sebelum kita mula membuat AI tahap otak manusia, langkah-langkah yang sesuai mesti diambil:

“Segera setelah kecerdasan buatan mencapai tahap manusia, peningkatan pesat diharapkan di banyak daerah. Juga, tidak lama kemudian, AI sendiri akan membuat AI baru. Cukup menilai prospek ini dan pada masa yang sama bahaya yang mungkin berlaku. Oleh itu, lebih baik berlebihan daripada ketinggalan."

NIKOLAY KHIZHNYAK

Video promosi:

Disyorkan: