Manusia Berbahaya: Mengapa Kita Memerlukan Kepintaran Buatan Yang Cerdas? - Pandangan Alternatif

Isi kandungan:

Manusia Berbahaya: Mengapa Kita Memerlukan Kepintaran Buatan Yang Cerdas? - Pandangan Alternatif
Manusia Berbahaya: Mengapa Kita Memerlukan Kepintaran Buatan Yang Cerdas? - Pandangan Alternatif

Video: Manusia Berbahaya: Mengapa Kita Memerlukan Kepintaran Buatan Yang Cerdas? - Pandangan Alternatif

Video: Manusia Berbahaya: Mengapa Kita Memerlukan Kepintaran Buatan Yang Cerdas? - Pandangan Alternatif
Video: Manusia Punah Karena Robot Super Cerdas? 2024, Mungkin
Anonim

Ketika Norbert Wiener, bapa cybernetics, menulis bukunya The Human Uses of Human Makes pada tahun 1950, tiub vakum masih merupakan blok bangunan elektronik utama, dan sebenarnya, hanya ada beberapa komputer di tempat kerja. Namun, dia membayangkan masa depan yang sekarang kita lihat dengan ketepatan yang belum pernah terjadi sebelumnya, hanya menyalahi perincian kecil.

Sebelum ada ahli falsafah kecerdasan buatan yang lain, dia menyedari bahawa AI tidak hanya akan meniru - dan menggantikan - manusia dalam banyak jenis aktiviti intelektual, tetapi juga akan mengubah orang dalam prosesnya. "Kami hanya pusaran air di sungai yang selalu mengalir," tulisnya. "Kami bukan sesuatu yang hidup, kami adalah model yang mengabadikan diri mereka sendiri."

Contohnya, ketika banyak peluang menarik muncul, kita bersedia membayar dan menerima sedikit kos menjalankan perniagaan untuk mengakses peluang baru. Dan tidak lama lagi kita bergantung pada alat baru, kita kehilangan keupayaan untuk wujud tanpa mereka. Pilihan menjadi diperlukan.

Ini adalah sejarah evolusi yang sangat lama, dan banyak bab daripadanya terkenal kepada kita. Sebilangan besar mamalia dapat mensintesis vitamin C mereka sendiri, tetapi primata pemakan buah telah kehilangan kemampuan ini. Corak berulang diri yang kita panggil manusia kini bergantung pada pakaian, makanan yang diproses, vitamin, jarum suntik, kad kredit, telefon pintar, dan internet. Dan esok, jika tidak hari ini, dari kecerdasan buatan.

Wiener meramalkan beberapa masalah dengan keadaan ini yang sering diabaikan oleh Alan Turing dan optimis AI awal. Ancaman sebenar, katanya, adalah:

… adakah mesin seperti itu, sementara tidak berdaya dalam diri mereka sendiri, dapat digunakan oleh manusia atau menyekat manusia untuk meningkatkan penguasaan mereka terhadap kaum yang lain, atau pemimpin politik dapat mencoba menguasai populasi mereka menggunakan kaedah politik dan bukannya mesin itu sendiri, sempit dan tidak peduli pada manusia, seolah-olah mereka diciptakan secara mekanikal.

Jelas sekali, bahaya ini sekarang sangat relevan.

Sebagai contoh, di media, inovasi dalam audio dan video digital membolehkan kita membayar harga yang kecil (di mata audiophile dan penonton filem) untuk menjauhkan diri daripada format analog, dan sebagai gantinya menerima cara bermain rakaman yang sangat sederhana - terlalu sederhana - dengan hampir tidak ada sekatan.

Video promosi:

Image
Image

Tetapi ada kos tersembunyi yang besar. Kementerian kebenaran Orwell telah menjadi peluang yang nyata. Teknik AI untuk membuat "rekod" palsu yang hampir tidak dapat dibezakan menjadikan alat yang kami gunakan untuk penyiasatan usang selama 150 tahun yang lalu.

Kita hanya perlu meninggalkan era bukti fotografi yang singkat dan kembali ke dunia lama di mana ingatan dan kepercayaan manusia adalah standard emas. Atau kita boleh mengembangkan kaedah pertahanan dan serangan baru dalam pertempuran untuk kebenaran. Salah satu contoh terbaru yang paling menggembirakan adalah kenyataan bahawa jauh lebih murah untuk menghancurkan reputasi daripada memperoleh dan melindungi reputasi yang sama. Wiener melihat fenomena ini secara meluas: "Dalam jangka panjang, tidak akan ada perbezaan antara mempersenjatai diri sendiri dan mempersenjatai musuh." Era maklumat juga telah menjadi era disinformasi.

Apa yang boleh kita buat? Kuncinya adalah pemerhatian Wiener yang sama bahawa "mesin ini" "tidak berdaya sendiri." Kami mencipta alat, bukan rakan sekerja, dan ancaman sebenarnya ialah kita tidak melihat perbezaannya.

Kecerdasan buatan dalam bentuknya sekarang adalah parasit pada kecerdasan manusia. Dia dengan tidak sengaja mengambil semua perkara yang telah dibuat dan diciptakan oleh pencipta manusia - termasuk kebiasaan kita yang paling rahsia. Mesin-mesin ini belum mempunyai tujuan atau strategi, tidak mampu melakukan kritikan dan inovasi diri, mereka hanya mempelajari pangkalan data kami, tanpa pemikiran dan tujuan mereka sendiri.

Mereka, seperti yang dikatakan oleh Wiener, tidak berdaya dalam arti bahawa mereka dirantai atau tidak bergerak, tidak, mereka sama sekali tidak menjadi ejen - mereka tidak mempunyai kemampuan untuk "bertindak dari sebab-sebab," seperti yang dikatakan oleh Kant.

Dalam jangka panjang, "AI yang kuat", atau kecerdasan buatan umum, mungkin pada prinsipnya, tetapi tidak diinginkan. AI yang lebih terhad yang mungkin berlaku dalam praktik hari ini tidak akan jahat. Tetapi ia menimbulkan ancaman - sebahagiannya kerana boleh disalah anggap sebagai AI yang kuat.

Seberapa kuat kecerdasan buatan hari ini?

Jurang antara sistem hari ini dan sistem sci-fi yang membanjiri khayalan popular masih besar, walaupun banyak orang, baik amatur dan profesional, cenderung memandang rendah. Mari lihat Watson IBM, yang mungkin dapat dihormati pada zaman ini.

Komputer super ini adalah hasil proses R&D (penyelidikan dan pengembangan) yang sangat besar yang melibatkan banyak orang dan merancang kecerdasan selama berabad-abad, dan ia menggunakan tenaga ribuan kali lebih banyak daripada otak manusia. Kemenangannya di Jeopardy! adalah kemenangan yang benar yang dimungkinkan oleh kekangan formula dari peraturan Jeopardy !, tetapi bahkan peraturan tersebut harus disemak agar dia dapat ikut serta. Saya terpaksa melepaskan sedikit fleksibiliti dan menambah kemanusiaan untuk membuat persembahan.

Watson adalah syarikat yang buruk, walaupun terdapat iklan yang menyesatkan dari IBM yang menjanjikan kemampuan percakapan AI di kedua-dua peringkat, dan mengubah Watson menjadi ejen pelbagai aspek yang dipercayai seperti mengubah kalkulator menjadi Watson. Watson mungkin merupakan kes pengkomputeran yang baik untuk ejen seperti itu, melainkan otak kecil atau amigdala daripada fikiran - yang terbaik, subsistem tujuan khas berfungsi sebagai sokongan, tetapi tidak hampir sistem untuk merancang dan merumuskan tujuan berdasarkan pengalaman perbualan yang diperoleh.

Mengapa kita mahu mencipta agen berfikir dan kreatif dari Watson? Mungkin idea cemerlang Turing - ujian Turing yang terkenal - memikat kita ke dalam perangkap: kita menjadi taksub untuk mencipta sekurang-kurangnya ilusi orang sebenar yang duduk di depan skrin, melewati "lembah yang tidak menyenangkan."

Bahayanya adalah bahawa sejak Turing mengemukakan tugasnya - yang terutama merupakan tugas untuk menipu para hakim - pencipta AI telah berusaha mencapainya dengan menggunakan boneka humanoid lucu, versi "kartun" yang akan memikat dan melucutkan senjata yang belum diketahui. ELIZA oleh Joseph Weisenbaum, chatbot pertama, adalah contoh utama mencipta ilusi seperti itu, tetapi dengan algoritma yang sangat sederhana yang dapat meyakinkan orang bahawa mereka sedang melakukan perbualan yang tulus dan tulus dengan orang lain.

Dia bimbang akan kemudahan orang percaya ini. Dan sekiranya kita mengetahui apa-apa dari Ujian Turing Terhad Lebner Prize tahunan, ia adalah walaupun orang paling pintar yang tidak mahir dalam pengaturcaraan komputer dengan senang hati memilih helah mudah ini.

Sikap orang dalam AI untuk teknik tersebut berkisar dari penilaian hingga bermanfaat, dan konsensus adalah bahawa muslihat ini tidak terlalu mendalam, tetapi dapat bermanfaat. Perubahan sikap yang sangat dialu-alukan adalah pengakuan ikhlas bahawa android yang dilukis dengan boneka adalah iklan palsu yang harus dikutuk, tidak digalakkan.

Bagaimana ini dapat dicapai? Setelah kita memahami bahawa orang mula membuat keputusan hidup dan mati dengan mengikuti "nasihat" sistem AI, operasi dalamannya hampir tidak dapat difahami, kita akan melihat alasan yang baik bagi mereka yang mendesak orang untuk mempercayai sistem seperti itu, untuk mulai bergantung pada norma-norma moral dan undang-undang.

Sistem kecerdasan buatan adalah alat yang sangat berkuasa. Begitu kuat sehingga pakar juga mempunyai alasan yang baik untuk tidak mempercayai penilaian mereka sendiri ketika ada "penilaian" yang diwakili oleh alat ini. Tetapi jika pengguna alat ini akan mendapat keuntungan, dari segi kewangan atau sebaliknya, daripada mempopularkan alat ini, mereka mesti memastikan mereka tahu bagaimana melakukannya dengan penuh tanggungjawab, kawalan maksimum dan justifikasi.

Melesenkan dan meluluskan pengendali sistem tersebut - sama seperti kita melesenkan ahli farmasi, pengendali kren dan profesional lain yang kesalahan dan salah anggapannya boleh mendatangkan akibat buruk - mungkin, dengan sokongan syarikat insurans dan organisasi lain, mewajibkan para pencipta sistem AI untuk pergi jauh mencari kelemahan dan kekurangan produk mereka, dan juga melatih mereka yang akan bekerja dengannya.

Seseorang boleh membayangkan semacam ujian Turing terbalik di mana hakim akan menjadi subjek penilaian; sehingga dia mendapati kelemahan, pelanggaran batas, jurang sistem, dia tidak akan mendapat lesen. Hakim seperti itu memerlukan latihan yang serius untuk mendapatkan sijil. Dorongan untuk mengaitkan objek dengan kemampuan manusia untuk berfikir, seperti yang biasa kita lakukan ketika bertemu dengan agen yang cerdas, sangat kuat.

Sebenarnya, kemampuan untuk menahan keinginan untuk melihat sesuatu yang berperikemanusiaan adalah perkara yang pelik. Banyak orang akan menganggap pemeliharaan bakat seperti itu meragukan, kerana bahkan pengguna sistem yang paling pragmatik kadang-kadang "ramah" tentang alat mereka.

Terlepas dari seberapa berhati-hati para pereka AI memilih untuk menghilangkan nada "manusia" palsu dalam produk mereka, kita harus mengharapkan berkembangnya label, jalan penyelesaian, dan penyimpangan yang dapat diterima mengenai "pemahaman" sebenar kedua-dua sistem dan pengendali mereka. Dengan cara yang sama bahawa ubat-ubatan dengan senarai kesan sampingan yang panjang diiklankan di TV, atau alkohol diiklankan dengan banyak cetakan kecil dengan semua amaran yang diperlukan oleh undang-undang, jadi pemaju kecerdasan buatan akan mematuhi undang-undang, tetapi peringatannya akan canggih.

Mengapa kita memerlukan kepintaran buatan?

Kita tidak memerlukan agen sedar buatan. Terdapat sebilangan besar agen sedar yang cukup untuk melaksanakan tugas untuk profesional dan individu istimewa. Kami memerlukan alat pintar. Instrumen tidak mempunyai hak dan tidak boleh mempunyai perasaan yang boleh disakiti atau disalahgunakan.

Salah satu sebab untuk tidak membuat agen sedar buatan adalah kerana walaupun mereka boleh menjadi autonomi (dan pada prinsipnya mereka boleh menjadi autonomi, memperbaiki diri, atau membuat diri sendiri seperti mana-mana orang), mereka tidak boleh - tanpa izin khas - berkongsi dengan kami ejen sedar alam, kerentanan atau kematian kita.

Daniel Dennett, seorang profesor falsafah di Tufts University, pernah mencabar pelajar dalam bengkel ejen buatan dan autonomi: Beri saya spesifikasi robot yang boleh menandatangani kontrak dengan anda - bukan pengganti yang dimiliki oleh orang lain, tetapi dengan sendirinya. Ini bukan persoalan memahami alasan atau memanipulasi pena di atas kertas, melainkan pemilikan dan pemilikan yang layak untuk status undang-undang dan tanggungjawab moral. Anak-anak kecil tidak boleh menandatangani kontrak seperti itu, serta orang kurang upaya, yang status undang-undangnya mewajibkan mereka berada di bawah jagaan dan mengenakan tanggungjawab kepada penjaga.

Masalah dengan robot yang mungkin ingin mencapai status yang tinggi adalah, seperti Superman, mereka terlalu terdedah untuk membuat tuntutan seperti itu. Sekiranya mereka menolak, apa yang akan berlaku? Apakah hukuman kerana melanggar janji? Adakah mereka akan dikurung di dalam sangkar atau dipisahkan? Penjara untuk kecerdasan buatan tidak akan menyusahkan melainkan jika kita terlebih dahulu membebani kehausan untuk kebebasan yang tidak dapat diabaikan atau dilumpuhkan oleh AI itu sendiri. Membongkar AI tidak akan membunuh maklumat yang disimpan pada cakera dan dalam perisiannya.

Kemudahan merekam dan menghantar data secara digital - satu kejayaan yang membolehkan perisian dan data mencapai, sebenarnya, keabadian - menjadikan robot tidak terkalahkan. Sekiranya tidak kelihatan jelas, fikirkan bagaimana moral orang akan berubah jika kita dapat menyokong orang setiap minggu. Melompat dari jambatan tanpa tali getah pada hari Ahad selepas sandaran hari Jumaat boleh menjadi keputusan yang cepat, maka anda dapat menonton rakaman kematian anda pada waktunya nanti.

Itulah sebabnya kita tidak mencipta sedar - kita ingin mencipta - agen humanoid, melainkan jenis makhluk yang sama sekali baru, beberapa oracle, tanpa sedar, tanpa takut mati, tanpa gangguan oleh cinta dan benci, tanpa keperibadian: cermin kebenaran yang pasti akan dijangkiti oleh manusia pembohongan.

Penggunaan manusia dari manusia tidak lama lagi akan berubah - sekali lagi - selamanya, tetapi jika kita mengambil tanggungjawab terhadap lintasan evolusi kita, kita dapat mengelakkan bahaya yang tidak perlu.

Ilya Khel

Disyorkan: