"Kita Perlu Memikirkan Sekarang Bagaimana Untuk Mendapatkan Kecerdasan Buatan" - Pandangan Alternatif

"Kita Perlu Memikirkan Sekarang Bagaimana Untuk Mendapatkan Kecerdasan Buatan" - Pandangan Alternatif
"Kita Perlu Memikirkan Sekarang Bagaimana Untuk Mendapatkan Kecerdasan Buatan" - Pandangan Alternatif

Video: "Kita Perlu Memikirkan Sekarang Bagaimana Untuk Mendapatkan Kecerdasan Buatan" - Pandangan Alternatif

Video:
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, September
Anonim

Stephen Hawking meneruskan "perang salib" terhadap kecerdasan buatan (AI).

Semasa kempen Ask Me Everything on Reddit yang sangat dinanti-nantikan, dia menulis bahawa pekerjaan untuk mengembangkan protokol keselamatan AI harus dilakukan sekarang, bukan pada masa yang akan datang.

"Matlamat kami bukan untuk mencipta kecerdasan buatan abstrak, tetapi untuk mencipta kecerdasan yang berguna," tulis ahli fizik terkenal. "Perlu beberapa dekad untuk mengetahui bagaimana melakukan ini, jadi mari kita mulai meneliti masalah ini sekarang, bukan malam sebelum yang pertama AI maju ".

Hawking telah menggunakan kemasyhuran untuk menyokong gerakan keselamatan AI sejak tahun 2014, ketika dia bersama-sama menulis sebuah editorial dengan penyelidik lain yang memperingatkan tentang ancaman eksistensial yang ditimbulkan oleh mesin canggih kepada manusia.

Personaliti teknologi terkenal lain, Elon Musk dan Steve Wozniak, telah bergabung dengan Hawking. Sebelumnya, ketiga-tiga mereka menandatangani surat terbuka yang meminta larangan senjata autonomi atau robot tempur.

Jangkaan bahawa manusia akan segera mencipta kecerdasan buatan telah wujud sejak tahun 50-an dan belum membenarkan diri mereka sendiri. Walau bagaimanapun, kebanyakan saintis AI percaya bahawa mesin yang mempunyai kecerdasan yang sama dengan manusia akan muncul pada abad ini.

Image
Image

Foto: ANDREW COWIE / AFP

Video promosi:

Hawking memberi amaran bahawa gambaran kecerdasan buatan dalam filem fiksyen ilmiah mengganggu bahaya sebenar mesin. Filem seperti The Terminator menggambarkan robot pembunuh iblis yang berusaha untuk memusnahkan umat manusia dengan alasan yang tidak dimiliki kecerdasan buatan. Mereka juga menjadikannya lebih mudah untuk mengurangkan risiko AI yang berpotensi (seperti tidak membina cyborg).

Ancaman sebenar dari AI bukanlah bahawa ia adalah jahat, tetapi ia sangat mampu. Kecerdasan buatan sangat bagus dalam melaksanakan tugasnya.

Sekiranya tugasnya tidak bertepatan dengan tugas kita, kita akan menghadapi masalah, - Hawking menulis, - anda sukar membenci semut, tetapi jika anda mengendalikan projek tenaga hijau, dan kawasan di mana semut itu terletak perlu dibanjiri, semut tersebut tidak beruntung. Jangan biarkan umat manusia berada dalam kedudukan semut ini."

Nick Bostrom, seorang ahli falsafah AI, berkhayal tentang senario akhir dunia apabila program mula berfungsi ke arah yang salah. Sebagai contoh, kecerdasan buatan diberi tugas untuk mengembangkan rancangan untuk melindungi alam sekitar, dan untuk menyelesaikan masalah ekologi, ia memutuskan untuk menghancurkan umat manusia.

Elon Musk telah memberikan $ 10 juta untuk penyelidikan keselamatan AI untuk mengelakkan kecerdasan buatan yang merosakkan seperti Skynet muncul di Terminator. Tetapi Hawking mahu orang mengubah keseluruhan persepsi mereka terhadap AI.

"Tolong beritahu pelajar anda untuk berfikir bukan hanya tentang cara membuat AI, tetapi juga bagaimana memastikannya digunakan untuk tujuan yang berguna," kata Hawking kepada guru yang memberi ceramah mengenai kecerdasan buatan. "Kemunculan AI yang melampaui manusia akan menjadi sama ada peristiwa terbaik atau terburuk dalam sejarah manusia. Oleh itu, adalah penting agar semuanya berjalan sebagaimana mestinya."

Disyorkan: