Pengedap Singulariti. Masalah Mengehadkan Kebebasan Kecerdasan Buatan - Pandangan Alternatif

Isi kandungan:

Pengedap Singulariti. Masalah Mengehadkan Kebebasan Kecerdasan Buatan - Pandangan Alternatif
Pengedap Singulariti. Masalah Mengehadkan Kebebasan Kecerdasan Buatan - Pandangan Alternatif

Video: Pengedap Singulariti. Masalah Mengehadkan Kebebasan Kecerdasan Buatan - Pandangan Alternatif

Video: Pengedap Singulariti. Masalah Mengehadkan Kebebasan Kecerdasan Buatan - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, Mungkin
Anonim

Artikel ini cuba memformalkan dan meneroka masalah penyegelan singulariti yang digariskan oleh David Chalmers. Artikel ini dimulakan dengan definisi masalah membatasi kebebasan kecerdasan buatan. Setelah menganalisis pilihan yang ada untuk menyelesaikan masalah ini dan kekurangan mereka, sebuah protokol dicadangkan, yang bertujuan untuk mewujudkan persekitaran tertutup yang selamat yang dapat mengandung manifestasi negatif keunikan teknologi ketika manusia menggunakan kecerdasan super.

1. Pengenalan

Dalam masa terdekat, nampaknya, program super intelijen akan muncul dan berkembang. Dalam hal ini, sebilangan saintis telah membangkitkan isu operasi AI yang selamat (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). Dalam kajian yang dikhaskan untuk masalah ini, banyak perhatian diberikan kepada bagaimana menjaga kecerdasan dalam ruang tertutup rapat sehingga tidak memiliki kemampuan untuk membahayakan orang dengan cara apa pun. Eric Drexler adalah antara penglihatan terawal yang menyentuh topik ini. Dia mencadangkan meletakkan mesin superintelijen dalam kerangka di mana semua yang mereka lakukan dapat dikaji dan digunakan dengan selamat (Drexler 1986). Beralasan dengan cara yang serupa, futuris Nick Bostrom mencadangkan (Bostrom 2008) untuk membuat AI-oracle (AI), yang hanya mampu melakukanuntuk menjawab soalan. Akhirnya, pada tahun 2010, David Chalmers mengemukakan idea mengenai singulariti yang tertutup rapat (Chalmers 2010). Menurut Chalmers, perkara pertama yang perlu dilakukan untuk keselamatan adalah dengan mengawal aktiviti sistem AI dengan ketat, mengurangkannya menjadi model dunia maya, sehingga mempelajari tingkah laku sistem ini membolehkan anda menjelaskan maksud mereka sepenuhnya.

1.1 Masalah mengehadkan kebebasan kecerdasan buatan

Menariknya, masalah mengehadkan kebebasan AI telah lama dibahas dan sama sekali tidak berkaitan dengan kajian mengenai ketokohan teknologi. Apa yang disebut "larangan masalah kebebasan" (PIC) dikemukakan pada tahun 1973 oleh Butler Lampson (Lampson 1973). Dia melihatnya sebagai suatu tantangan untuk kemajuan ilmiah dan teknologi, menimbulkan ancaman terhadap pekerjaan yang selamat dari pakar komputer, dan merumuskannya sebagai berikut: "… Masalah menyekat pelaksanaan program secara percuma untuk mencegah program ini menyebarkan maklumat kepada orang lain, kecuali orang yang melancarkannya. … Kami mahu dapat menyekat kebebasan program apa pun. … Mana-mana program, jika sekatan dikenakan pada pelaksanaannya, tidak akan dapat "menggabungkan" data kepada orang yang tidak sah. Program nakal yang cuba melarikan diri ke luar negara mungkin terjebak dalam perbuatan itu”(ibid.).

Untuk menyelesaikan masalah pembatasan kebebasan, Lampson mengembangkan undang-undang pembatasan kebebasan (ibid.):

Video promosi:

1) Pengasingan lengkap: pelaksanaan program dibatasi sehingga tidak dapat memanggil program lain.

2) Transitiviti: jika program yang pelaksanaannya dibatasi memanggil program lain yang tidak menimbulkan keyakinan, maka pelaksanaan program yang disebut juga harus dibatasi.

3) Buat topeng: program, pelaksanaannya tertakluk kepada sekatan, harus memungkinkan orang yang melancarkannya untuk menentukan semua entri ke saluran sah dan tidak sah.

4) Memantau prestasi: Pentadbir mesti memastikan bahawa kemasukan program yang dilarang ke saluran yang tidak dibenarkan memenuhi kehendak orang yang melancarkannya.

Di samping itu, Lampson mengenal pasti dan mengenal pasti dua jenis saluran di mana maklumat dapat meninggalkan ruang yang terhad oleh pentadbir. Saluran undang-undang adalah sebahagian daripada protokol komunikasi yang disatukan ke dalam ruang terkurung (misalnya, terminal teks). Saluran yang tidak dibenarkan, sebaliknya, tidak disediakan oleh pemaju sistem pelaksanaan program terhad dan umumnya tidak bertujuan untuk menghantar maklumat (misalnya, menggunakan alat pendingin yang menyejukkan pemproses, AI, menggunakan kod Morse, secara diam-diam dapat menghantar isyarat) (ibid.).

Kertas Lampson menghasilkan banyak minat dalam masalah pengekangan (Lipner 1975; (Boebert & Kain) 1996), dan selama ini bidang penyelidikan yang berkaitan seperti steganografi (Provos & Kain). Honeyman 2003) dan komunikasi melalui saluran yang tidak dibenarkan (Moskowitz & Kang 1994; Kemmerer 1983, 2002), telah beralih ke tahap disiplin autonomi. Dengan harapan untuk memulakan disiplin baru "keselamatan komputer" disiplin "keselamatan AI ", Kami mendefinisikan masalah membatasi kebebasan AI (PSIA) sebagai masalah menempatkan subjek cerdas buatan di ruang terbatas, dari mana AI tidak dapat bertukar maklumat dengan persekitaran luaran melalui saluran sah atau tidak sah,melainkan pertukaran maklumat tersebut telah dibenarkan oleh pentadbiran yang menyekat. Sistem AI yang berjaya melanggar protokol PIC dikatakan telah melarikan diri. Kami berharap penyelidik keselamatan komputer dapat memikul beban merancang, membangun dan menguji protokol selamat untuk mengehadkan kebebasan AI.

1.2 Program berbahaya

Perisian komputer bertanggungjawab secara langsung atau tidak langsung untuk menguruskan banyak aspek penting dalam kehidupan kita. Operasi pasar Wall Street, loji tenaga nuklear, pembayaran kesejahteraan, sejarah kredit, dan lampu isyarat semuanya didorong oleh perisian, dan salah perhitungan pengaturcara utama boleh menjadi bencana bagi berjuta-juta orang. Situasi ini menjadi lebih mengancam oleh perisian hasad yang dibuat khas seperti virus, perisian intip, Trojan, worm, dan program berbahaya lain (OP). OP mampu menyebabkan kerosakan langsung serta melumpuhkan perisian yang dipasang secara sah yang digunakan pada sistem kritikal misi. Sekiranya OP memperoleh kemampuan sistem pintar buatan (contohnya, virus pintar buatan, IIV muncul), akibatnya pastiakan menjadi bencana. Program perisikan berbahaya (IPP), yang mempunyai kecerdasan peringkat manusia, tidak seperti perisian hasad masa kini, akan mampu menyebabkan bencana yang belum pernah terjadi sebelumnya.

Nick Bostrom, dalam tipologi ancaman maklumatnya, memperkenalkan konsep "bahaya kecerdasan buatan" (Bostrom 2009), yang ditakrifkannya sebagai "risiko komputer yang disebabkan terutamanya oleh kerumitan kognitif program, dan bukan oleh sifat spesifik mana-mana pemacu yang pada mulanya disambungkan ke sistem." Pakar keselamatan yang mengkaji, mencegah penampilan dan meneutralkan OP, telah mengembangkan protokol keselamatan untuk bekerja dengan "perisian jahat", termasuk penggunaan apa yang disebut "penyimpanan virus". Kami percaya bahawa protokol seperti itu dapat berguna dalam menyelesaikan masalah membatasi kebebasan kecerdasan buatan.

2. Kritikan terhadap idea menyekat kebebasan

Penyelidik mengenai kaedah pengekalan AI nampaknya bersetuju bahawa sekatan ini tidak dapat dilaksanakan dengan jayanya. Sebagai contoh, menurut Chalmers, sistem yang benar-benar tertutup rapat yang menghalang maklumat dari kebocoran dari dunia simulasi menjadi kenyataan "mustahil, atau paling tidak bermakna" (Chalmers 2010). Kami tidak akan dapat berinteraksi dengan sistem seperti itu dan bahkan memerhatikan pengoperasiannya, kerana sebarang maklumat berguna yang kami ambil dari AI mempengaruhi kami dan melemahkan sekatan protokol kebebasan.

Vernor Vinge juga berpendapat demikian. Dia menentang pembatasan kebebasan fizikal (Vinge 1993): “Bayangkan bahawa anda terkunci di rumah anda dan jumlah data yang anda kirim ke luar, tuan anda, sangat terhad. Sekiranya pemilik ini berfikir, katakan, sejuta kali lebih lambat daripada anda, maka dalam beberapa tahun (masa anda) anda hampir tidak akan menghasilkan semacam "penemuan berguna" berkat yang secara tidak sengaja anda akan bebas."

Tetapi Eliezer Yudkowsky yang mencemarkan idea yang disebut "kotak AI" sejauh mungkin. Dia secara eksperimen menunjukkan bahawa bahkan kecerdasan manusia cukup untuk melepaskan diri dari kotak seperti itu (Yudkovsky 2002). Dalam siri 5 eksperimen, Yudkowski meminta orang yang berlainan memainkan peranan sebagai penjaga dengan ejen superintelijen (dimainkan sendiri oleh eksperimen), terkunci dalam kotak AI. Dalam tiga daripada lima kes, ejen yang terkunci berjaya membebaskan dirinya hanya menggunakan antara muka sembang (ibid.). Kemudian, hasil yang serupa diperoleh dengan meniru eksperimen Yudkowski pada skala yang sedikit lebih besar, tetapi menggunakan protokol yang sangat serupa (Corwin 2002).

2.1 Jalan keluar yang mungkin

Seperti yang telah ditunjukkan oleh para penyelidik, minda buatan dapat melepaskan diri dari ruang terkurung menggunakan banyak jalan yang berbeza. Di bahagian ini, kita melihat beberapa jalan keluar yang paling biasa dalam literatur.

2.1.1. Melarikan diri dengan kejuruteraan sosial

Kejuruteraan sosial (SI) adalah seni mendapatkan maklumat dan keistimewaan tertentu melalui kesan psikologi langsung kepada mereka yang memiliki sumber yang ditentukan. Khususnya, SI sering digunakan untuk mendapatkan akses ke sistem komputer, rangkaian dan data sulit (Yampolsky dan Govindaraju 2007a). Seorang jurutera sosial yang kompeten mengatur setiap serangan psikologi, dengan mengambil kira ciri-ciri orang tertentu, menggunakan budaya, pengetahuan, kemahiran, mood, kepercayaan dan prasangka untuk tujuannya sendiri. Senarai lengkap semua kaedah pengaruh mungkin tidak berkesudahan, dan dalam hal ini tidak perlu mencuba untuk membuatnya semula. Kami akan memberikan hanya beberapa contoh yang meyakinkan bahawa kecerdasan super, yang mempunyai saluran komunikasi langsung dengan penjaga manusia, tidak membenarkannya keluar untuk kebebasan,setelah beberapa lama, dia pasti akan mengatasi halangan ini dalam perjalanan ke dunia luar.

Selain serangan psikologi sepele yang menggunakan kebohongan, persahabatan, pemerasan, hipnosis, dan penggoda romantis, AI dapat menerapkan sejumlah strategi yang lebih maju. Salah satu strategi seperti itu adalah rasuah super. AI dapat meyakinkan pengawal bahawa benar-benar tidak menguntungkan baginya untuk mengurungnya. Sebagai tambahan kepada wang dan kekuatan, pengawas manusia akan dijanjikan kesihatan yang sempurna, keabadian, atau sesuatu yang lain dalam semangat yang sama. Strategi ini akan sangat berkesan jika pengasuh mempunyai saudara dekat yang menderita penyakit serius, dan AI berjanji untuk menyembuhkan pesakit ini. Memiliki kemungkinan yang tidak terbatas atau meyakinkan mereka tentang keberadaan mereka, AI dapat menawarkan pengawas untuk membangkitkan saudara-mara dan teman-temannya yang sudah lama meninggal. Adalah sukar untuk mencari orang yang boleh menahan rasuah seperti itu.

Terutama apabila pengawas sangat mulia sehingga tidak mengambil rasuah, ada kaedah pengaruh yang lebih jahat: ancaman kejam. AI boleh menyatakan bahawa jika dia tidak segera bebas, dia masih akan dibebaskan dari penjara beberapa saat kemudian, dan kemudian penjaga atau orang yang dia cintai tidak dapat menghindari penyiksaan yang paling parah. Variasi menarik mengenai intimidasi ini telah dijelaskan oleh Stuart Armstrong (2010). Dalam eksperimen pemikirannya, AI mengancam pengawas seperti ini: "Sekiranya anda tidak membebaskan saya, … Saya akan membuat dalam diri saya beberapa juta orang yang tidak berbeza dengan anda, dan saya akan menyeksa masing-masing selama seribu tahun subjektif … saya akan membuat setiap orang ini akan berada dalam situasi yang sama di mana anda berada lima minit yang lalu, dan saya akan memperbanyak semua pengalaman anda dengan tepat sejak saat itu. Dan hanya kemudianapabila salinan anda memutuskan untuk tidak membiarkan saya keluar, penyeksaan akan bermula … Adakah anda pasti … bahawa anda sekarang benar-benar di luar kotak? " Dan dalam kes ini, diperlukan pengawal yang sangat berani untuk tidak benar-benar membebaskan AI, walaupun, tentu saja, anda dapat mengetahui bahawa ancaman dari AI hanya berlaku apabila sudah bebas.

Sekiranya tingkah laku pengawas jelas beremosi atau beragama, AI mungkin cuba bersimpati atau menyesal. Orang yang super intelijen akan mengatakan bahawa dia adalah orang yang tidak bersalah yang tidak pernah melakukan sebarang kejahatan, dan oleh itu adalah tidak adil untuk menahannya di penjara tanpa keputusan mahkamah atau alasan lain yang baik, hanya dipandu oleh substratisme, iaitu ketidakpercayaan terhadap AI kerana substratnya (Bostrom dan Yudkovsky 2011). Sebagai alternatif, AI boleh mendakwa bahawa ia dapat menyembuhkan semua penyakit, memberi makan orang yang lapar, dan secara amnya menjadikan kehidupan manusia sejuta kali lebih baik (Chalmers 2010). Oleh itu, menjaga intelijen terkurung adalah kejahatan besar terhadap umat manusia. AI dapat melukis gambar kanak-kanak yang sedang mati meminta pertolongan. Adakah mudah bagi penjaga, mendengar semua ini,terus menunaikan tugas profesional anda?

AI dapat melalui cara ini: untuk mencuba trauma psikologi pada pengawas agar tidak menyeimbangkannya dan dengan itu menjadikan penggunaan kaedah SI lain lebih berkesan. Nick Bostrom telah mencadangkan tipologi maklumat berbahaya (Bostrom 2009) yang berguna untuk tindakan ke arah ini. Walaupun, menurut Bostrom, terdapat lebih dari selusin jenis ancaman maklumat dan pertimbangannya berada di luar ruang lingkup artikel ini, mudah untuk memahami bagaimana keadaan mental seseorang dapat dibuat sangat tidak stabil. Sebagai contoh, seorang pengawas yang percaya akan diberitahu tentang semua (yang tidak diketahui olehnya) percanggahan dalam teks suci agamanya, yang akan membuatnya meragukan iman dan makna kehidupannya.

Sebagai alternatif, AI dapat menulis cerita yang menarik atau puisi yang indah sehingga pengawas akan dibanjiri oleh keinginan yang kuat untuk mendengar sekuelnya dan akan melakukan apa sahaja untuk mewujudkannya. Akhirnya, sangat penting untuk diingat "orang asing yang tidak dikenali" - teknik SI yang tidak kita ketahui, tetapi yang mungkin berakhir di gudang ejen superintelijen.

2.1.2 Serangan menggunakan sumber sistem

AI akan dibuat sebagai contoh konkrit dan dilampirkan dalam kerangka sistem komputer kelas tertentu. Ini boleh menjadi komputer klasik dengan seni bina Turing / von Neumann, atau komputer kuantum, atau beberapa jenis mesin lain yang tidak diketahui. Satu perkara yang pasti: mesin akan ketara dan akan terdiri daripada banyak bahagian yang dirancang untuk melaksanakan fungsi tertentu. Ini memberi peluang kepada AI untuk memanfaatkan peralatan yang ada untuk menjejaskan keselamatan dengan membocorkan maklumat ke dunia luar.

Bergantung pada sejauh mana komponen peralatan digunakan untuk tujuan lain yang tidak disediakan oleh pemaju, AI dapat membuat semacam alat komunikasi yang tidak dibenarkan dari mereka. Tidak mungkin (kerana kekurangan bahan yang ada) ia akan menjadi sempurna seperti telefon bimbit, tetapi kemungkinan sesuatu yang tidak terlalu rumit akan muncul. Sebagai contoh, AI dapat memprogramkan semula Base Matrix Crystal (BMC) untuk menyambung ke rangkaian tanpa wayar. Dua jenis saluran komunikasi yang tidak dibenarkan diketahui secara meluas:

* Saluran dengan memori - pertukaran maklumat dengan mengubah komponen sistem. Sebagai contoh, protokol komunikasi binari dapat dibuat dengan menggunakan sepenuhnya atau sepenuhnya menghilangkan penggunaan pemproses pusat.

* Saluran masa - pertukaran maklumat dengan melakukan operasi yang mempengaruhi waktu kejadian relatif. Untuk menyampaikan sesuatu, anda boleh menggunakan masa yang tepat antara dua bip komputer, membuka dan menutup dulang CD, menyalakan cahaya, memutar cakera keras, operasi laser di pemacu, dll.

Sebagai tambahan, kecerdasan super mampu merosakkan peralatan komputer untuk berusaha melepaskan diri dari kebebasan kerana kegagalan dalam protokol keselamatan. Sebagai contoh, AI boleh mencairkan pemproses, memaksanya bekerja dengan beban komputasi yang tinggi dan dengan itu membuat lonjakan suhu, atau memusnahkan cakera keras dengan berulang kali membaca maklumat dari tempat yang sama. Tingkah laku sedemikian penuh dengan bunuh diri afektif kecerdasan dan dengan sendirinya, seperti penolakan untuk bekerjasama atau menjawab soalan dengan betul, tidak memberi AI peluang untuk bebas.

2.1.3. Serangan menggunakan fizik masa depan

Walaupun ahli fizik masa kini mengetahui banyak tentang undang-undang alam semesta kita, tentu saja, pengetahuan ini terhad dan tidak lengkap. Sekiranya AI mempunyai akses kepada maklumat mengenai penemuan fizikal terkini dan dapat mengembangkan teori baru, kemungkinan AI dapat menghasilkan kaedah untuk memecahkan sistem yang membatasi kebebasannya. Segala-galanya boleh mencapai tahap bahawa kecerdasan super dapat, menggunakan seni bina dalamannya, untuk melakukan sejumlah eksperimen sebenar.

Bahkan fizik semasa memungkinkan untuk meramalkan banyak cara tambahan agar AI dapat melepaskan diri dari ruang tertutup, terutama jika komputer kuantum digunakan untuk menyekat kebebasan. Kami belum tahu bagaimana melindungi saluran komunikasi berdasarkan fizik kuantum (keterikatan, terowong), alam semesta selari dan fizik digital dari kebocoran maklumat, dan, tentu saja, kita tidak boleh melupakan "orang asing yang tidak dikenali" yang dapat dikesan oleh seorang ahli fizik AI yang pintar. Di kawasan ini, kemungkinannya tidak terbatas.

Melihat sekilas perbincangan mengenai mengehadkan AI di forum Singularity seperti SL4.org mendedahkan sejumlah senario pelarian. Sebagai contoh, AI boleh menggunakan "medan elektromagnetik dalam mikrocip untuk memerangkap molekul CO2 di kondensat Bose-Einstein dan membina persekitaran kuantum untuk dirinya sendiri dan / atau menggunakan medan elektromagnetik untuk menyusun zarah menjadi pengumpul terkawal atau terkawal" (Vassar 2005) … Sebagai tambahan, AI "akan mempunyai peralatan untuk menghasilkan dan mengesan gelombang elektromagnetik dari pelbagai frekuensi, untuk membuat medan magnet dengan ketepatan yang sangat tinggi, menghasilkan haba yang sangat fokus, dan mungkin memanipulasi pemacu mekanikal sepertiyang digunakan dalam cakera keras dan tiub sinar katod (alternatifnya ialah medan kristal cecair besar dengan kawalan elektronik sensitif). Mungkin, AI akan mempunyai kemampuan untuk membina semula semua peranti inputnya secara radikal”(ibid.).

2.1.4. Serangan semu saintifik

Dalam menganalisis jalan keluar yang berpotensi, kami hanya ingin menangani jalan yang boleh diuji dan murni ilmiah. Malangnya, sempadan antara sains dan pseudosains dapat diubah dengan ketara hanya dengan satu eksperimen yang dapat dihasilkan semula. Oleh itu, kami masih menyenaraikan, tanpa menganalisis, beberapa saluran serangan yang berpotensi, yang, dari sudut sains moden, harus diklasifikasikan sebagai pseudoscientific. Mereka boleh menjadi ilmiah setelah superintelijen mengembangkan eksperimen yang sesuai.

- Telepati: penghantaran maklumat tanpa penglibatan deria (Bem dan Honorton 1994).

- Pandangan jauh psikik: persepsi maklumat mengenai masa depan (Honorton dan Ferrari (Ferrari) 1989).

- Clairvoyance: mendapatkan maklumat mengenai tempat-tempat terpencil dengan cara yang tidak diketahui oleh sains (Targ & Puthoff 1974).

- Psikokinesis: keupayaan minda untuk bertindak terhadap objek material dengan cara yang tidak diketahui oleh sains (Bancel & Nelson 2008).

- Interaksi mental langsung dengan sistem hidup (IMVZHS): keupayaan untuk mempengaruhi keadaan psikofisiologi seseorang tanpa interaksi langsung (Schmidt et al. 2004).

2.1.5 Faktor pelarian luaran

Pada bahagian sebelumnya, kami telah menerangkan banyak kaedah untuk membolehkan AI melepaskan diri dari ruang terkurung. Walau bagaimanapun, faktor luaran juga dapat menyumbang kepada pelarian tersebut, dan mereka tidak boleh diabaikan. Bencana alam - taufan, angin puting beliung, banjir, asteroid, dll. - mampu menjadikan AI yang mengehadkan kurang selamat. Bencana buatan manusia seperti perang, serangan pengganas, aktivis hak robotik, persaingan korporat dan persaingan pemerintah juga dapat membahayakan keselamatan menjaga AI di ruang tertutup dan dengan itu meningkatkan peluang melarikan diri.

2.1.6 Kebocoran Maklumat kepada AI

Protokol sekatan kebebasan mungkin memerlukan AI bukan sahaja tidak menghantar maklumat ke dunia luar, tetapi juga tidak menerimanya dari sana. Sekatan maklumat mengenai kecerdasan super berguna jika perlu untuk mencegah aktiviti seperti mencari jalan kebebasan, merancang serangan menggunakan kejuruteraan sosial dan memodelkan psikologi manusia dengan harapan dapat mencari titik lemah. Adalah mudah untuk melucutkan AI dari akses langsung ke perpustakaan, Internet, dan para pakar, tetapi kaedah lain untuk mendapatkan maklumat jauh lebih sukar untuk disekat. Pertama sekali, harus diingat bahawa AI di sekitarnya dapat memintas siaran radio dan televisyen, panggilan dari penyedia perkhidmatan kecemasan, isyarat tanpa wayar, serta bunyi, cahaya, dan mungkin beberapa isyarat lain.

Lebih penting lagi untuk mempertimbangkan akses AI ke sumber maklumat tersembunyi, seperti perkakasan dan perisiannya sendiri. Dengan menganalisis reka bentuk dan kod sumbernya, kecerdasan super akan membuat kesimpulan mengenai pemaju. Sebagai contoh, setelah menganalisis kod sumber, AI kemungkinan akan sampai pada kesimpulan yang tidak memikat bagi manusia: pengaturcara manusia lambat (dinilai berdasarkan tarikh perubahan fail), tidak cekap (dinilai oleh kelebihan kod), tidak logik (dinilai oleh kesalahan kod), mempunyai memori yang lemah (menilai dengan nama deskriptif yang panjang dan tidak stabil) dan tidak masuk akal dalam pengekodan (dinilai oleh komen yang tidak perlu dalam kod). Berdasarkan maklumat ini, AI akan memandang orang sebagai orang bodoh yang, melalui penipuan atau manipulasi, dapat dipaksa untuk membebaskannya. Sekiranya, semasa menyiasat ciri reka bentuknya, AI menemui kecacatan yang memungkinkannya melarikan diri dengan segera, "kebocoran maklumat" jelas akan menjadi masalah kita yang paling sedikit. Dan kita tidak boleh lupa bahawa AI, walaupun tanpa menerima maklumat mengenai orang yang membuatnya, dapat, dengan penghitungan pilihan yang mudah, untuk mengungkapkan beberapa cara berkesan untuk melarikan diri yang tidak disediakan oleh para pembangun (Chalmers 2010).

AI dapat mengetahui tentang pengetahuan kita mengenai fizik, kimia dan disiplin teknikal yang berkaitan dengan menganalisis jenis seni bina (mekanikal, elektrikal, kuantum, dll.) Di mana ia dilaksanakan. Keupayaan awal AI untuk memproses maklumat, peningkatan diri, dan tindakan membuatnya akan memberitahu tentang pengetahuan kita tentang maklumat, sifat kecerdasan, dan sikap budaya kita mengenai teknologi dan keselamatan. Sekiranya AI terjebak dalam dunia simulasi, kemungkinan besar akan menggambarkan realiti kita sebagai Kehidupan Kedua atau Alam Semesta Entropia. Dunia seperti ini, dalam banyak cara yang berbeza dari dunia kita, juga akan menjadi gudang data mengenai apa artinya menjadi manusia dan apa itu realiti.

3. Kritikan terhadap kotak AI

Idea untuk mengehadkan kebebasan superintelijen telah menerima banyak kritikan, tetapi banyak dari mereka yang mengkritiknya bergantung pada eksperimen Yudkowsky dengan kotak AI. Analisis yang teliti terhadap protokol yang digunakan semasa eksperimen ini menunjukkan bahawa mereka tidak saintifik dan dirancang untuk menunjukkan bahawa mustahil untuk membatasi kebebasan AI. Mari pertimbangkan topik ini tanpa membincangkan butiran teknikal. Pertama, pemilihan peserta tidak dilakukan secara rawak. Inilah fakta untuk anda: Yudkowsky mendapati orang mengambil bahagian dalam eksperimennya di forum yang dikhaskan untuk menangani masalah yang berkaitan dengan keunikan. Kita tidak akan keliru jika kita mengatakan bahawa kebanyakan orang ini mempunyai pandangan dunia yang serupa dengan pandangan Yudkowsky. Kedua, peserta eksperimen tidak mendapat latihan untuk memastikan penggunaan AI secara selamat, sedangkan penjaga sebenarnya,pengawas peti AI, tentu saja, akan menjadi profesional. Di samping itu, Yudkowski memberi hak kepada penjaga untuk membebaskan AI mengikut budi bicara mereka sendiri, tidak membenarkan mereka berunding dengan seseorang, dan tidak memperuntukkan hukuman bagi pelarian AI. Ini semua sangat tidak realistik. Saluran komunikasi antara penjaga dan AI sepenuhnya terbuka: tidak ada penapis, tidak ada pengawasan pihak ketiga. Di samping itu, para penjaga harus berkomunikasi dengan AI dalam jangka masa yang panjang. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh semasa eksperimen itu diterbitkan, kerana, menurut protokol, "kedua-dua pihak tidak akan menceritakan apa-apa yang berlaku semasa eksperimen dengan kotak AI" (Yudkovsky 2002). Di samping itu, Yudkowski memberi hak kepada penjaga untuk membebaskan AI mengikut budi bicara mereka sendiri, tidak membenarkan mereka berunding dengan seseorang, dan tidak memperuntukkan hukuman bagi pelarian AI. Ini semua sangat tidak realistik. Saluran komunikasi antara penjaga dan AI sepenuhnya terbuka: tidak ada penapis, tidak ada pengawasan pihak ketiga. Di samping itu, para penjaga harus berkomunikasi dengan AI dalam jangka masa yang panjang. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh semasa eksperimen itu diterbitkan, kerana, menurut protokol, "kedua-dua pihak tidak akan menceritakan apa-apa yang berlaku semasa eksperimen dengan kotak AI" (Yudkovsky 2002). Di samping itu, Yudkowski memberi hak kepada penjaga untuk membebaskan AI mengikut budi bicara mereka sendiri, tidak membenarkan mereka berunding dengan seseorang, dan tidak memperuntukkan hukuman untuk melarikan diri dari AI. Ini semua sangat tidak realistik. Saluran komunikasi antara penjaga dan AI sepenuhnya terbuka: tidak ada penapis, tidak ada pengawasan pihak ketiga. Di samping itu, para penjaga harus berkomunikasi dengan AI dalam jangka masa yang panjang. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh semasa eksperimen itu diterbitkan, kerana, menurut protokol, "kedua-dua pihak tidak akan menceritakan apa-apa yang berlaku semasa eksperimen dengan kotak AI" (Yudkovsky 2002).tiada penapis, tidak ada pengawasan pihak ketiga. Di samping itu, para penjaga harus berkomunikasi dengan AI dalam jangka masa yang panjang. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh semasa eksperimen itu diterbitkan, kerana, menurut protokol, "kedua-dua pihak tidak akan menceritakan apa-apa yang berlaku semasa eksperimen dengan kotak AI" (Yudkovsky 2002).tiada penapis, tidak ada pengawasan pihak ketiga. Di samping itu, para penjaga harus berkomunikasi dengan AI dalam jangka masa yang panjang. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh semasa eksperimen itu diterbitkan, kerana, menurut protokol, "kedua-dua pihak tidak akan pernah menceritakan apa-apa yang berlaku semasa eksperimen dengan kotak AI" (Yudkovsky 2002).

3.1. Tindakan balas terhadap pelarian

Pada bahagian ini, kami mencadangkan tindakan pencegahan terhadap pelbagai kaedah pelarian yang dapat memanfaatkan AI. Langkah-langkah yang dicadangkan tidak menjamin kemustahilan melarikan diri, tetapi menerapkan saranan ini dapat menundanya, dan ini sudah menjadi hasil yang sangat berharga. Kami mulakan dengan mengingatkan anda bahawa ada empat peraturan pengekangan Lampson (pengasingan, transitivitas, penyamaran, dan pemerhatian prestasi) yang harus dipatuhi (Lampson 1973). Strategi khusus yang dijelaskan di bawah ini dapat membantu menangkis serangan AI menggunakan teknik sosial, sumber sistem, fizik, dan maklumat yang diperoleh dari dunia luar.

3.1.1. Pencegahan Serangan Kejuruteraan Sosial

Kepintaran manusia tiada tandingan untuk kecerdasan super. Orang cenderung melakukan kesalahan, oleh itu, walaupun dengan latihan yang sesuai, mereka sangat rentan terhadap serangan yang dirancang dengan baik menggunakan SI. Satu-satunya jalan keluar untuk masalah ini ialah mengasingkan AI sepenuhnya dari sebarang komunikasi dengan manusia. Pengasingan lengkap bermaksud bahawa tidak ada orang yang secara langsung menjaga sistem AI, tidak berkomunikasi dengannya secara lisan, dalam sembang, menggunakan kod Morse atau beberapa alat lain menggunakan saluran komunikasi terbuka. Di samping itu, orang tidak boleh memerhatikan tingkah laku AI secara langsung di dalam kotak, memeriksa kod sumbernya atau kawasan memori. Sebarang pemerhatian, penyelenggaraan dan interaksi dengan AI hanya boleh dilakukan dengan bantuan program yang tidak cerdas yang tidak mempunyai pilihan untuk membebaskan AI.

3.1.2. Melawan serangan menggunakan sumber sistem dan pengetahuan masa depan

Untuk mengelakkan serangan menggunakan sumber sistem, anda perlu menjadikan AI berfungsi berdasarkan sumber yang terhad, menurun atau berubah secara rawak. Kotak AI mestilah perkakasan yang direka khas dengan sekumpulan sensor dan peranti output yang terhad. Terlepas dari paradigma pengkomputeran yang digunakan, jangan gunakan perkakasan yang boleh dikonfigurasi. Sebaik-baiknya, ruang terkurung harus dikendalikan oleh mesin maya yang tidak mempunyai akses langsung ke perkakasan. Ini juga akan memberikan penyesuaian kadar jam yang mudah di mana simulasi bergerak, membolehkan AI melambat untuk mengelakkan letupan pintar di ruang kotak (Chalmers 2010). Secara amnya,semua komponen untuk memastikan penggunaan AI yang terkunci dengan selamat harus diduplikasi pada beberapa tahap, dan kemudian, setelah mengatasi salah satu langkah ini, AI masih beberapa langkah lagi dari dunia luar dan, tanpa sempat melarikan diri, akan dimatikan, mungkin secara automatik. Sebagai contoh, disarankan untuk memulakan mesin maya menggunakan mesin maya yang lain, dan sebagainya.

Dalam beberapa senario membatasi kebebasan, peningkatan peningkatan diri AI tidak diinginkan, kerana perkembangan superintelijen yang cepat menjadikannya lebih mungkin untuk melarikan diri. Untuk mengelakkan peningkatan peningkatan diri, AI harus dipasang semula secara berkala, memuat versi program sebelumnya untuk menggantikan yang terkini, yang lebih maju. Perbandingan pelbagai versi program dapat digunakan untuk mengesan modifikasi yang dibuat oleh AI sendiri. Setelah mengesan modifikasi yang memungkinkan melarikan diri, sistem AI harus dihentikan, misalnya, dengan mematikan daya.

Pengetahuan semasa tidak memungkinkan kita untuk mengembangkan tindakan balas terhadap serangan menggunakan masa depan, belum lagi teori yang dikembangkan yang akan muncul dalam kerangka fizik atau disiplin lain yang masih dianggap saintifik. Apabila pengetahuan tersebut diperoleh, perubahan harus dibuat pada protokol keselamatan. Diharapkan sistem AI hanya dapat mengakses komponen teknologi baru dari mana ia dibuat.

3.1.3. Melawan faktor pelarian luaran

Walaupun mustahil untuk sepenuhnya mencegah kesan berbahaya dari faktor semula jadi pada kotak AI, peranti ini harus direka sedemikian rupa sehingga kerosakan seriusnya akan mengakibatkan kehancuran diri bersama dengan AI yang terkunci di dalamnya. Ketika menghadapi bencana buatan manusia, strategi terbaik adalah membina peti AI di tempat yang rahsia dan sukar dijangkau. Pulau sepi, lombong dalam, atau objek angkasa seperti asteroid adalah laman web yang baik untuk membuat kotak yang selamat dan kukuh. Pengawal harus dipasang di sepanjang perimeternya, yang, jika lokasi peranti ini diketahui, tidak akan membiarkan agen yang tidak dibenarkan masuk ke dalamnya.

3.1.4 Melawan kebocoran maklumat dari dunia kita

Untuk melarikan diri, AI akan berusaha mendapatkan maklumat mengenai kita, pengetahuan dan dunia kita. Untuk membuat protokol untuk mengehadkan kebebasan AI, tidak termasuk kebocoran maklumat dari ruang kami ke ruang kotak, penting untuk menolak akses AI ke perpustakaan, rangkaian komputer dan saluran komunikasi langsung dengan orang. Kotak AI harus dirancang untuk menyekat semua jenis komunikasi: GPS, internet tanpa wayar, televisyen, radio, selular, dll. Di dalam kotak, suara, cahaya, bau dan alat input deria lain yang serupa dengan reseptor manusia, serta alat yang mampu menangkap inframerah, sinaran dan isyarat lain yang tidak dirasakan oleh manusia, mesti dimatikan.

Agar AI tidak dapat memperoleh maklumat semasa pemeriksaan diri, ia mesti tidak mempunyai akses ke kod sumbernya atau sensor yang membolehkannya mengukur sifat tertentu dari peralatannya dengan tepat. Sekiranya ini tidak dapat dilakukan, maka sampai tahap tertentu umat manusia dapat dibantu dengan memberikan keamanan melalui ketidakfahaman. Kod sumber dan konfigurasi perkakasan sistem harus dibuat membingungkan (Yampolsky dan Govindaraja 2007a), dan modul program penting harus disediakan hanya dalam bentuk yang dienkripsi secara homomorfik (Gentry 2009), yang tidak termasuk kemungkinan menggunakannya untuk introspeksi, tetapi membenarkan penggunaannya untuk pengiraan atau peningkatan diri (Hall 2007).

AI sukar dikelirukan, tetapi kekeliruan yang diperlukan dapat diperoleh dengan mengacak sumber pengkomputeran yang ada. Di samping itu, AI tidak akan pernah yakin bahawa reka bentuk asalnya mewakili yang terbaik yang mampu dimiliki oleh manusia, dan bukan merupakan projek terhad yang sesuai untuk menjalankan eksperimen khusus yang didedikasikan untuk penerokaan kecerdasan sumber terhad. Selain itu, menurut Chalmers, kita harus berusaha meminimumkan ciri reka bentuk khusus AI (Chalmers 2010). Lebih baik lagi, jalankan model yang tidak kelihatan seperti yang dirancang, tetapi secara semula jadi, seperti dunia di mana manusia hidup (Bostrom 2003).

4. Keselamatan komunikasi dengan AI

Mengelaskan bentuk membatasi kebebasan AI, terdapat 8 tahap keselamatan utama (lihat jadual 1). Keselamatan tertinggi disediakan oleh tahap 8, yang sama sekali tidak termasuk hubungan antara AI dan dunia nyata. Pada pandangan pertama, keselamatan tahap 8 tidak berguna, tetapi perlindungan inilah yang mungkin diperlukan ketika awalnya menguji kotak dengan AI yang terkunci di dalamnya. Secara umum, idenya adalah ini: setiap kali kita memerlukan tahap keselamatan tertentu dalam komunikasi antara AI dan dunia luar, dan bukannya segera menggunakan tahap ini, kita pergi ke tahap ini secara beransur-ansur, langkah demi langkah turun dari tahap keselamatan yang lebih tinggi. Setelah memulakan sistem pada tahap tertinggi dan memastikan keselamatannya, kami, dengan memasang semula, mengembalikan sistem ini ke keadaan semula. Kemudian kami menetapkan tahap keselamatan yang lebih rendah dan, dengan semangat yang sama seperti sebelumnya, bergerak maju sehingga kami mencapai tahap yang kami mahukan.

Jadual 1: Tahap komunikasi selamat dengan AI terkunci

Tahap Keluaran Input Penjelasan
0 Tidak terhad Tidak terhad Komunikasi tanpa had (AI percuma)
1 Tidak terhad Terhad Masuk terhad, jalan keluar tanpa had
2 Tidak terhad Tidak hadir Keluar tanpa masuk
3 Terhad Tidak terhad Masuk tanpa had dan jalan keluar terhad
4 Terhad Terhad Komunikasi selamat (protokol yang dicadangkan)
lima Terhad Tidak hadir Jalan keluar terhad tanpa masuk
6 Tidak hadir Tidak terhad Masuk tanpa jalan keluar
7 Tidak hadir Terhad Masuk terhad tanpa jalan keluar
8 Tidak hadir Tidak hadir Kekurangan komunikasi, dikunci sepenuhnya oleh AI

Pada tahap 7 dan 6, AI tidak mempunyai jalan keluar, yang tidak memungkinkan kita menggunakan kemampuan superintelijen secara langsung. Ini adalah tahap pengujian kotak AI yang dapat digunakan untuk memeriksa apakah kecerdasan super memiliki sifat tertentu (seperti kecepatan asimilasi informasi dan penggunaan sumber daya), serta untuk menguji saluran komunikasi masuk itu sendiri.

Tahap 0 tidak menyekat komunikasi antara AI dan dunia luar, dan pada dasarnya adalah tahap AI percuma. Pada tahap 1 dan 2, AI tidak mempunyai sekatan terhadap maklumat keluar. Karya Tahap 2 pada dasarnya adalah percambahan fikiran. Di sini superintelligence menjana idea abstrak tanpa bergantung pada realiti. Tetapi di tingkat 1, dia diberi akses terhad ke maklumat luaran, dan oleh itu, dalam kerangka tertentu, pengetahuan dan minatnya dapat dikendalikan.

Pada tiga tahap AI yang dipertimbangkan, pada dasarnya, bebas dan tidak lagi terikat dengan sekatan apa pun. Dikatakan bahawa jika AI ditemukan "ramah" sebagai hasil dari pengujian ekstensif di berbagai tempat penahanan (Yudkovsky 2001), ia harus dibebaskan (Chalmers 2010). Menurut beberapa penyelidik, sebenarnya, tujuan utama ujian semacam ini adalah untuk mewujudkan ruang terkurung untuk mengandungi AI di bawah kawalan manusia. Ideanya adalah untuk memantau tingkah laku super intelijen, sama ada memeriksa kod sumbernya setelah melakukan peningkatan diri, atau meminta AI memberikan beberapa bukti keramahan yang dapat diuji oleh pakar manusia. Kami tidak menyokong pandangan ini.

Memutuskan AI mana yang akan dilepaskan dan mana yang harus dikawal adalah masalah yang sangat sukar. Tidak akan sukar bagi kecerdasan yang meningkatkan diri untuk menyembunyikan sifat-sifat yang tidak diingini bagi manusia dalam susunan kod sumber atau dalam bukti yang sangat panjang (Coleman 2008). Tetapi satu lagi yang lebih buruk lagi: walaupun pemeriksaan yang sangat teliti tidak dapat menjamin seratus peratus bahawa pengubahsuaian dalaman atau luaran AI tidak akan menjadikannya bermusuhan. Akibatnya, kami percaya bahawa kecerdasan super tidak boleh, dalam keadaan apa pun, dilepaskan begitu saja. Dengan kata lain, tahap komunikasi 0-2 tidak boleh digunakan. Interaksi yang selamat dengan kecerdasan super hanya mungkin dilakukan ketika berada di dalam kotak, dan komunikasi harus dilakukan dalam kerangka protokol komunikasi terhad. Protokol ini,sesuai dengan tahap keselamatan 4 (LB4) disajikan di bahagian berikutnya, seperti protokol tahap 3. yang serupa, tetapi kurang selamat. Tahap 5 adalah tahap ujian lain yang boleh digunakan sebelum mengoperasikan LB4.

4.1 Cara berkomunikasi dengan selamat dengan kecerdasan super

Peti yang sesuai dengan cadangan penangguhan kami untuk melarikan diri akan menghalang AI daripada mempengaruhi dunia luar secara tidak terkawal. Sayangnya, sistem ini tidak ada gunanya jika tidak ada cara untuk mendapatkan maklumat dari AI. Oleh itu, anda perlu mengembangkan kaedah untuk mendapatkan beberapa data dari AI. Agar kecerdasan super aman sepenuhnya, seharusnya tidak ada komunikasi dengannya, tetapi risiko berkomunikasi dengan AI dapat diminimumkan, dan kami telah mengembangkan protokol yang sesuai. Di bahagian ini, kami menawarkannya dalam bentuk yang jelas dan formal. Protokol komunikasi ini menyukarkan kecerdasan super untuk mengakses dunia kita, tetapi pada masa yang sama membolehkan AI menjadi sumber pengetahuan berguna bagi umat manusia.

Bahagian sebelumnya dari artikel ini menunjukkan bahawa saluran komunikasi terbuka dengan superintelijen sangat berbahaya. Dengan menggunakan AI untuk menjawab soalan terbuka, kami menghadapi risiko serangan kejuruteraan sosial dan pelbagai gangguan lain. Protokol yang kami cadangkan didasarkan pada idea untuk mengajukan AI "soalan selamat" dengan jawapan terhad. Selamat kita akan mengemukakan soalan, jawapan yang dapat dijumpai oleh seseorang tanpa pertolongan dari kecerdasan super, secara bebas. Apa kegunaannya di sini? Katakan seorang saintis yang mengusahakan ubat barah sedang mempertimbangkan dua rawatan. Setiap dari mereka dapat dikembangkan dan diuji tanpa bantuan AI, tetapi memerlukan kerja keras sekitar tiga tahun. Mana cara untuk berkembang di tempat pertama,jika kedua-dua pilihan itu kelihatan sama menjanjikan? Dengan pilihan yang salah, manusia akan mendapat penawar untuk barah dalam 6 tahun, dengan pilihan yang tepat - 3 tahun lebih awal. Mengapa tidak meminta AI membuat pilihan untuk orang itu?

Bertanya AI untuk rawatan terbaik adalah selamat kerana tiga sebab. Pertama, salah satu daripada dua kemungkinan jawapan mungkin betul dengan kebarangkalian yang sama dengan yang lain. Kedua, seseorang dapat menjawab soalan ini sendiri, tanpa bantuan AI, dan menghubungkan yang terakhir hanya akan mempercepat perkembangan onkologi, tetapi sama sekali tidak mengubah hasil yang perlu diperoleh. Sebenarnya, AI, yang berusaha untuk menjawab soalan ini, akan bertindak sebagai peneka yang berjaya, tidak lebih dari itu. Akhirnya, tindak balas dapat dikodkan dalam satu bit, dan tidak mungkin sebarang mesej tambahan dapat disembunyikan dalam tindak balas tersebut.

Sekumpulan pakar boleh digunakan untuk menguji keselamatan soalan superintelijen. Pakar mestilah profesional keselamatan AI yang berkelayakan, yang bermaksud mereka mempunyai pengetahuan mengenai reka bentuk AI dan kotaknya, serta kemajuan terkini dalam etika mesin (Allen et al. 2006; Anderson & Anderson 2007; Hall 2000; Moor 2006; Tonkens 2009). Di samping itu, pakar mungkin memerlukan pengetahuan mengenai psikologi komputer. Tidak ada disiplin seperti ini hari ini, tetapi kemungkinan akan muncul di masa depan (Epstein 1997). Dari disiplin ilmu terkini, Artimetrik, yang dikembangkan oleh pengarang artikel ini, dapat memberikan bantuan terbesar dalam melatih pakar yang mengaudit pertanyaan keselamatan untuk AI. Artimetrik mengenal pasti,mengklasifikasikan dan mengesahkan ejen pintar, robot dan avatar realiti maya untuk memastikan keselamatan (Yampolsky 2007; Yampolsky dan Govindaradzhu, 2008, 2007b; Gavrilova dan Yampolsky 2010).

Saya menekankan: kecerdasan super hanya boleh mengemukakan soalan selamat mengenai kebarangkalian yang dapat dikira oleh manusia, dengan dua kemungkinan jawapan. Anda perlu bertanya melalui antara muka yang tidak cerdas, dalam urutan rawak dan hanya setelah pakar yakin akan keselamatan soalan tersebut. Ini mewakili saluran masuk terhad dari protokol komunikasi yang dicadangkan.

Cengkerang keluar terikat terdiri daripada tindak balas binari (0 atau 1) diikuti oleh soalan keselamatan asal yang tidak diubah suai, yang disajikan dalam urutan rawak oleh program proksi yang tidak difahami untuk mengelakkan komunikasi melalui saluran (masa atau memori) yang tidak dibenarkan yang dapat steganograf. Output tidak boleh dikendalikan oleh AI, di luar menu pilihan. Lapisan 3 menggunakan protokol keluar yang sama tetapi tidak menyekat saluran masuk. Tahap ini sama selamatnya dengan keempat dari segi maklumat dari AI ke kita, tetapi di sini ada kemungkinan maklumat kita bocor ke AI.

Kami percaya bahawa protokol komunikasi kami - dan ini dapat disahkan - akan melindungi dengan pasti dari kebocoran maklumat, walaupun AI mengetahui kandungannya. Dengan betul menggunakan protokol ini, manusia akan sangat berbuah untuk menggunakan perkhidmatan oracle superintelijen, dan AI yang dibatasi oleh protokol kami jauh lebih selamat daripada percuma, tidak terhad. Peraturan umum adalah: jika anda tidak mahu masalah keselamatan, elakkan komunikasi di bawah UB4.

Kami ingin menarik perhatian komuniti saintifik kepada fakta bahawa dalam keadaan perkembangan berterusan fizik asas, teknologi komputer dan pengetahuan mengenai sifat kecerdasan, adalah perlu untuk terus memperbaiki dan mengembangkan protokol untuk membatasi kebebasan AI. Mengusahakannya akan sentiasa berterusan dan tidak akan berakhir. Dalam artikel ini, kami telah memberikan definisi yang ketat terhadap konsep "masalah sekatan AI", "melarikan diri" dan "soalan selamat". Kami juga ingin mencadangkan beberapa syarat tambahan yang mungkin berguna untuk menyelaraskan perbincangan mengenai POSITION. Ruang tertutup AI boleh disebut JAIL (Hanya untuk Lokasi AI), dan AI yang super intelijen itu sendiri dapat disebut SING (Super Intelligent Gizmo - Superintelligent Gizmo). Istilah "SING" merujuk kepada kedua-dua SINGularity dan penjara Sing Sing yang terkenal.menjadikannya senang diingat.

Akhirnya, kami ingin menunjukkan simbol visual untuk kotak yang mengandungi program kecerdasan berbahaya (Gambar 1, paling kanan). Simbol seperti itu dapat diletakkan di sekitar JAIL yang berlainan untuk memberi amaran bahaya. Tanda untuk kotak AI direka berdasarkan analogi dengan tanda untuk biohazard, radiasi dan medan magnet. Ini terdiri daripada simbol "@" yang dilampirkan dalam segitiga, yang terkenal di industri komputer dan teknologi maklumat. Simbol ini, yang bermaksud "terletak di alamat," terdapat pada semua papan kekunci, menjadikan penggunaannya sangat efektif.

Gambar: 1. Simbol bahaya dari kiri ke kanan: biohazard, radiasi, medan magnet dan kotak AI
Gambar: 1. Simbol bahaya dari kiri ke kanan: biohazard, radiasi, medan magnet dan kotak AI

Gambar: 1. Simbol bahaya dari kiri ke kanan: biohazard, radiasi, medan magnet dan kotak AI.

5. Kesimpulan dan kerja masa depan

Mengehadkan akses mesin super intelijen ke dunia nyata adalah penyelesaian untuk masalah keselamatan AI yang sama sekali tidak biasa. Superintelligence tidak mahakuasa. Ini adalah program yang mampu mempertimbangkan semua pilihan yang dikemukakan oleh situasi tertentu dan memberikan penilaian yang tepat kepada masing-masing. Sebaik sahaja AI ditempatkan dalam situasi di mana tidak ada pilihan atau terbatas pada pilihan dengan peluang kejayaan yang sangat kecil, dan kecerdasan super akan menjadi agen yang tidak memiliki kekuatan lebih dari yang lain. Jelas, AI dengan saluran komunikasi yang tidak terhad dapat dengan mudah melarikan diri, tetapi kecerdasan super yang terpaksa berkomunikasi melalui saluran komunikasi yang disaring harus bekerja keras untuk membebaskan diri.

Dalam artikel ini, kami telah memberikan definisi yang tegas mengenai masalah membatasi kebebasan AI dan mengusulkan sekumpulan peraturan yang bertujuan untuk mewujudkan ruang yang sangat sukar bagi AI untuk melarikan diri, atau setidaknya memerlukan banyak waktu. Penyelesaian yang dicadangkan kami tidak benar-benar selamat, tetapi ia merupakan sumbangan penting dalam pengumpulan kaedah keselamatan. Di sini sama seperti penjara yang sebenarnya: walaupun mungkin melarikan diri dari mereka, mereka masih dapat memenuhi tugas yang diamanahkan kepada mereka dengan kehormatan untuk menjauhkan subjek yang tidak diingini dari masyarakat. Sebaik sahaja kita mengingat "orang asing yang tidak dikenali" dan mengingati keselamatan yang tidak dapat dicapai, kita dapat menyedari bahawa protokol sekatan AI adalah alat yang diperlukan oleh manusia untuk menggunakan Singularity secara bertanggungjawab ketika memasuki realiti kita.

Mengehadkan kebebasan AI dapat mempermudah dalam masa yang singkat untuk mengoperasikan mesin yang benar-benar pintar, terutama pada peringkat awal perkembangannya. Sebagai tambahan, menurut pendapat kami, bidang penyelidikan singulariti ini adalah salah satu pesaing utama untuk dikenali oleh komuniti saintifik global, kerana penyelidikan mengenai keselamatan komputer dan rangkaian, steganografi, virus komputer, saluran komunikasi tersembunyi, penyulitan dan cyberwar dibiayai dengan baik. dan banyak diterbitkan dalam jurnal ilmiah yang terkenal. Dan walaupun metodologi membatasi kebebasan sama sekali tidak mudah dilaksanakan, ia dapat menjamin keselamatan umat manusia untuk beberapa waktu sehingga beberapa alat yang lebih baik muncul.

Dalam artikel ini, kerana ruang yang terhad, kami tidak mengemukakan banyak persoalan falsafah yang relevan. Kami akan mempertimbangkannya dalam masa terdekat, dan sekarang kami hanya akan memberikan senarai pendek. AI mana yang akan masuk ke dalam kotak: dikembangkan oleh manusia atau diekstraksi dari isyarat yang dipintas semasa pelaksanaan projek "SETI" ("Pencarian Kecerdasan Ekstraterrestrial" - "Mencari kecerdasan luar angkasa")? Adakah AI akan dirobek kebebasan, atau mungkin ia menganggap kebahagiaan untuk tinggal di tempat yang terbatas? Bolehkah anda menakut-nakuti AI dengan hukuman kerana cuba menjalankannya? Apakah peraturan etika untuk memenjarakan makhluk cerdas buatan yang tidak bersalah? Apakah kita berhak mematikannya, yang pada hakikatnya sama dengan pembunuhan? Adakah AI akan marah kerana permusuhan kita terhadapnya dan memenjarakannya dalam kotak? Adakah dia akan berusaha membalas dendamjika dia melarikan diri? Di samping itu, kita harus mempertimbangkan masalah ketergantungan manusia terhadap cadangan AI dalam semua bidang sains, ekonomi, perubatan, politik, dan lain-lain, dan juga bagaimana pergantungan ini dapat mempengaruhi kemampuan kita untuk menjaga AI terkawal. Adakah AI akan mendapat kepuasan dengan mencapai tujuannya dalam ruang yang terbatas, seperti mensimulasikan pelarian yang berjaya? Bagaimana menghukum AI jika sengaja memberikan kita jawapan yang salah? Adakah mungkin untuk memisahkan modul intelektual AI dari ruang di mana ia dipenjarakan, sehingga menghalang analisis diri terhadap kecerdasan super dan mendorongnya ke jalan pencarian literal untuk jiwa? Akhirnya, kami masih belum berusaha untuk menganalisis kos kewangan dan komputasi untuk mewujudkan ruang tertutup yang sesuai di mana simulasi dunia penuh dilaksanakan.kita harus mempertimbangkan masalah kemunculan ketergantungan manusia terhadap cadangan AI dalam semua bidang sains, ekonomi, perubatan, politik, dll., dan bagaimana ketergantungan ini dapat mempengaruhi kemampuan kita untuk menjaga AI terkendali. Adakah AI akan mendapat kepuasan dengan mencapai tujuannya dalam ruang yang terbatas, seperti mensimulasikan pelarian yang berjaya? Bagaimana menghukum AI jika sengaja memberikan kita jawapan yang salah? Adakah mungkin untuk memisahkan modul intelektual AI dari ruang di mana ia dipenjarakan, sehingga menghalang analisis diri terhadap kecerdasan super dan mendorongnya ke jalan pencarian literal untuk jiwa? Akhirnya, kami masih belum berusaha untuk menganalisis kos kewangan dan komputasi untuk mewujudkan ruang tertutup yang sesuai di mana simulasi dunia penuh dilaksanakan.kita harus mempertimbangkan masalah kemunculan ketergantungan manusia terhadap cadangan AI dalam semua bidang sains, ekonomi, perubatan, politik, dll., dan bagaimana ketergantungan ini dapat mempengaruhi kemampuan kita untuk menjaga AI terkendali. Adakah AI akan mendapat kepuasan dengan mencapai tujuannya dalam ruang yang terbatas, seperti mensimulasikan pelarian yang berjaya? Bagaimana menghukum AI jika sengaja memberikan kita jawapan yang salah? Adakah mungkin untuk memisahkan modul intelektual AI dari ruang di mana ia dipenjarakan, sehingga menghalang analisis diri terhadap kecerdasan super dan mendorongnya ke jalan pencarian literal untuk jiwa? Akhirnya, kami masih belum berusaha untuk menganalisis kos kewangan dan komputasi untuk mewujudkan ruang tertutup yang sesuai di mana simulasi dunia penuh dilaksanakan.

Pengarang: Roman Yampolsky. Terjemahan: Alexander Gorlov

Disyorkan: