Microsoft: Tenang, Robot Tidak Akan Memperbudak Kita. Sekurang-kurangnya Buat Masa Ini - Pandangan Alternatif

Microsoft: Tenang, Robot Tidak Akan Memperbudak Kita. Sekurang-kurangnya Buat Masa Ini - Pandangan Alternatif
Microsoft: Tenang, Robot Tidak Akan Memperbudak Kita. Sekurang-kurangnya Buat Masa Ini - Pandangan Alternatif

Video: Microsoft: Tenang, Robot Tidak Akan Memperbudak Kita. Sekurang-kurangnya Buat Masa Ini - Pandangan Alternatif

Video: Microsoft: Tenang, Robot Tidak Akan Memperbudak Kita. Sekurang-kurangnya Buat Masa Ini - Pandangan Alternatif
Video: Video Masa Depan teknologi di Masa yang akan Datang Oleh Microsoft _ Q-fLy Post.FLV 2024, September
Anonim

Microsoft adalah salah satu syarikat yang melakukan yang terbaik untuk memastikan bahawa perkembangan kecerdasan buatan dan aplikasinya dalam persekitaran teknologi di seluruh dunia jauh lebih aktif daripada pada masa ini … Dan menurut ucapan syarikat pada persidangan pembangun BUILD yang lalu, syarikat gergasi perisian itu sudah berusaha bagaimana mempercepat proses ini.

Memandangkan sudah ada mesin di dunia yang dapat melakukan tugas yang diberikan kepada mereka lebih baik daripada manusia, beberapa orang bimbang bahawa dunia ini akan segera diperintah oleh robot tanpa jiwa, dan oleh itu perlu untuk mengembangkan kaedah berkat yang manusia dapat dengan cepat mengendalikannya mesin sekiranya diperlukan.

Ahli fizik Stephen Hawking dan pengasas Tesla Elon Musk mungkin dua tokoh paling terkenal dalam landskap teknologi untuk menyuarakan kebimbangan mereka tentang bagaimana penyatuan robotik dan AI secara besar-besaran dapat mempengaruhi dunia kita di masa depan.

"Perkembangan kecerdasan buatan sepenuhnya dapat menjadi awal dari akhir umat manusia," kata Profesor Hawking pada satu masa dan mendapat sokongan dari Musk, yang menambahkan bahawa "melabur dalam mesin pintar adalah jalan pengembangan yang sangat berbahaya."

Tetapi menurut Chris Bishop, pengarah Microsoft Research di Cambridge, pelaburan robotik kini selamat, kerana manusia masih dapat mengawal semua yang mereka lakukan. Dalam temu bual dengan The Guardian, dia menjelaskan bahawa komen seperti itu hanyalah "sudut pandang yang terlalu dramatis" dan menjelaskan bahawa ketakutan seperti itu hanya dapat mempengaruhi evolusi robotik secara negatif.

"Bahaya di tempat pertama mungkin terletak pada kenyataan bahawa kita secara buta memperhatikan terlalu banyak" penghentian "," Skynet "dan akhir semua umat manusia. Sudah tentu, dalam urat ini, anda dapat melihat perkembangan kecerdasan buatan hanya dari sisi negatif, emosional dan sepihak. Tetapi ini serupa dengan kenyataan bahawa kita mengeksekusi orang yang baru dilahirkan, tetapi belum terbentuk,”kata Bishop.

Chris dengan cepat menjelaskan bahawa robot tidak semestinya menimbulkan ancaman bagi umat manusia sejak awal, kerana kita masih berpuluh-puluh tahun lagi dari masa ketika "komen dan pendapat semacam itu sebenarnya dapat masuk akal untuk dibincangkan."

Bishop, bagaimanapun, mengakui bahawa melaburkan sejumlah besar wang dalam robotik secara membabi buta masih dapat meningkatkan bahaya, kecuali pelaburan serupa dicurahkan ke dalam pengembangan teknologi yang akan memungkinkan penyelesaian masalah yang muncul tepat waktu atau bahkan menghalangnya daripada dibuat terlebih dahulu.

Video promosi:

Lebih-lebih lagi, Chris bersetuju bahawa robot sememangnya akan dapat meningkatkan kadar pengangguran manusia dalam masa terdekat, setelah syarikat besar menyedari bahawa sistem automatik akan dapat melakukan sekumpulan kemungkinan tugas yang semakin meningkat lebih cepat dan lebih murah daripada manusia. Walaupun begitu, menurut Uskup, jika semua ini dikendalikan dengan betul, maka perkara-perkara ini tidak akan pernah terjadi.

Terdapat banyak perkara yang tidak akan dapat ditangani oleh robot secara semula jadi seperti otak manusia, dan jadi terlalu awal untuk membicarakan mesin dengan semua kemampuan yang melebihi manusia dan yang dibincangkan oleh kebanyakan pakar dalam bidang ini. Kami terpisah dari masa depan yang penuh robot selama beberapa dekad,”kata Bishop.

Disyorkan: