Kecerdasan Buatan Dan Jeffrey Hinton: Bapa Pembelajaran Dalam - Pandangan Alternatif

Isi kandungan:

Kecerdasan Buatan Dan Jeffrey Hinton: Bapa Pembelajaran Dalam - Pandangan Alternatif
Kecerdasan Buatan Dan Jeffrey Hinton: Bapa Pembelajaran Dalam - Pandangan Alternatif

Video: Kecerdasan Buatan Dan Jeffrey Hinton: Bapa Pembelajaran Dalam - Pandangan Alternatif

Video: Kecerdasan Buatan Dan Jeffrey Hinton: Bapa Pembelajaran Dalam - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Kecerdasan Buatan. Berapa banyak yang telah diperkatakan mengenai dia, tetapi kita belum benar-benar mula bercakap. Hampir semua yang anda dengar mengenai kemajuan kecerdasan buatan adalah berdasarkan kejayaan yang berusia tiga puluh tahun. Mengekalkan momentum kemajuan akan memerlukan pencegahan kekangan dan kekangan besar. Seterusnya, pada orang pertama - James Somers.

Saya berdiri di mana pusat dunia tidak lama lagi, atau hanya di sebuah bilik besar di tingkat tujuh menara berkilat di pusat bandar Toronto - di sisi mana anda melihat. Saya ditemani oleh Jordan Jacobs, pengasas bersama tempat ini: The Vector Institute, yang membuka pintunya pada musim gugur ini dan berjanji untuk menjadi pusat global kecerdasan buatan.

Kami berada di Toronto kerana Jeffrey Hinton berada di Toronto. Dan Jeffrey Hinton adalah bapa "pembelajaran mendalam," teknik di sebalik keceriaan AI. "Dalam 30 tahun, kita akan melihat ke belakang dan mengatakan bahawa Jeff adalah Einstein untuk AI, pembelajaran mendalam, apa sahaja yang kita panggil kecerdasan buatan," kata Jacobs. Daripada semua penyelidik AI, Hinton disebut lebih kerap daripada tiga orang yang mengikutinya. Pelajar sarjana dan siswazahnya pergi bekerja di makmal AI di Apple, Facebook, dan OpenAI; Hinton sendiri adalah saintis utama dalam pasukan AI Google Brain. Hampir setiap kemajuan dalam AI dalam dekad yang lalu - dalam terjemahan, pengecaman pertuturan, pengecaman gambar, dan permainan - ada kaitan dengan karya Hinton.

Vektor Institut, monumen untuk munculnya idea-idea Hinton, adalah pusat penyelidikan di mana syarikat-syarikat dari seluruh AS dan Kanada - seperti Google, Uber, dan NVIDIA - menaja usaha untuk mengkomersialkan teknologi AI. Wang mengalir lebih cepat daripada yang diminta oleh Jacobs; dua pengasasnya meninjau syarikat di kawasan Toronto, dan permintaan untuk pakar AI adalah 10 kali lebih tinggi daripada bekalan Kanada setiap tahun. Vektor Institut, dari satu segi, adalah tanah perawan yang belum dimanfaatkan untuk berusaha menggerakkan dunia di sekitar pembelajaran mendalam: untuk melabur, mengajar, mengasah, dan menerapkan teknik ini. Pusat data sedang dibina, bangunan pencakar langit dipenuhi dengan syarikat permulaan, dan generasi pelajar memasuki wilayah ini.

Apabila anda berdiri di lantai Vektor, anda mendapat perasaan bahawa anda berada di awal sesuatu. Tetapi pembelajaran mendalam pada dasarnya sangat lama. Artikel terobosan Hinton, ditulis bersama David Rumelhart dan Ronald Williams, diterbitkan pada tahun 1986. Karya ini menerangkan secara terperinci kaedah backpropagation of error (backpropagation), secara ringkas. Backprop, menurut John Cohen, adalah "semua pembelajaran mendalam berdasarkan - semuanya."

Pada dasarnya, AI hari ini adalah pembelajaran mendalam, dan pembelajaran mendalam adalah sokongan belakang. Yang mengejutkan memandangkan backprop berusia lebih dari 30 tahun. Cukup diperlukan untuk memahami bagaimana ini berlaku: bagaimana teknologi itu dapat menunggu begitu lama dan kemudian menyebabkan letupan? Kerana setelah anda mengetahui sejarah backprop, anda akan memahami apa yang berlaku dengan AI sekarang, dan juga bahawa kita mungkin tidak berada di awal revolusi. Mungkin kita berada di hujung satu.

Berjalan dari Institut Vektor ke pejabat Google Hinton di mana dia menghabiskan sebahagian besar waktunya (dia sekarang menjadi profesor emeritus di University of Toronto) adalah semacam iklan langsung untuk bandar, sekurang-kurangnya pada musim panas. Menjadi jelas mengapa Hinton, yang berasal dari UK, pindah ke sini pada tahun 1980-an setelah bekerja di Carnegie Mellon University di Pittsburgh.

Video promosi:

Mungkin kita tidak pada awal revolusi

Toronto adalah bandar keempat terbesar di Amerika Utara (selepas Mexico City, New York dan Los Angeles) dan pastinya lebih pelbagai: lebih daripada separuh penduduk dilahirkan di luar Kanada. Dan anda dapat melihatnya semasa anda berjalan di sekitar bandar. Orang ramai berbilang bangsa. Terdapat penjagaan kesihatan percuma dan sekolah yang baik, orangnya ramah, ahli politik agak kiri dan stabil; semua ini menarik minat orang seperti Hinton, yang mengatakan bahawa dia meninggalkan Amerika Syarikat kerana Irangate (Iran-Contra adalah skandal politik besar di Amerika Syarikat pada separuh kedua 1980-an; kemudian diketahui bahawa anggota pentadbiran AS tertentu menganjurkan rahsia pembekalan senjata ke Iran, sehingga melanggar embargo senjata terhadap negara itu). Di sinilah perbincangan kami bermula sebelum makan tengah hari.

"Banyak yang berpendapat AS mungkin menyerang Nicaragua," katanya. "Atas sebab-sebab tertentu mereka percaya bahawa Nikaragua adalah milik Amerika Syarikat." Dia mengatakan bahawa dia baru-baru ini membuat kejayaan besar dalam projek ini: "Seorang jurutera junior yang sangat baik mula bekerja dengan saya," seorang wanita bernama Sarah Sabour. Sabur adalah orang Iran dan telah ditolak visa untuk bekerja di Amerika Syarikat. Pejabat Toronto di Google menariknya.

Hinton berumur 69 tahun. Dia mempunyai wajah Inggeris yang tajam dan nipis dengan mulut nipis, telinga besar dan hidung yang sombong. Dia dilahirkan di Wimbledon dan dalam perbualan mengingatkan pencerita sebuah buku kanak-kanak mengenai sains: ingin tahu, menarik, cuba menjelaskan semuanya. Dia lucu dan sedikit bermain kepada penonton. Ia menyakitkannya untuk duduk kerana masalah punggung, jadi dia tidak dapat terbang, dan di pejabat doktor gigi dia berbaring di atas alat yang menyerupai papan luncur.

Image
Image

Pada tahun 1980-an, Hinton, seperti sekarang, adalah pakar jaringan saraf, model rangkaian neuron dan sinapsis yang sangat disederhanakan di otak kita. Namun, pada masa itu, sangat disepakati bahawa rangkaian saraf merupakan jalan buntu dalam penyelidikan AI. Walaupun rangkaian saraf pertama, Perceptron, dikembangkan pada tahun 1960-an dan dianggap sebagai langkah pertama menuju kecerdasan mesin peringkat manusia, pada tahun 1969 Marvin Minsky dan Seymour Papert secara matematis membuktikan bahawa rangkaian seperti itu hanya dapat melakukan fungsi sederhana. Jaringan ini hanya mempunyai dua lapisan neuron: lapisan input dan lapisan output. Rangkaian dengan banyak lapisan antara neuron input dan output dapat, secara teori, dapat menyelesaikan pelbagai masalah, tetapi tidak ada yang tahu bagaimana melatihnya, jadi dalam praktiknya mereka tidak berguna. Oleh kerana Perceptrons, hampir semua orang telah meninggalkan idea rangkaian saraf dengan beberapa pengecualian.termasuk Hinton.

Terobosan Hinton pada tahun 1986 adalah untuk menunjukkan bahawa backpropagation dapat melatih jaringan saraf yang mendalam dengan lebih dari dua atau tiga lapisan. Tetapi diperlukan 26 tahun lagi sebelum kuasa pengkomputeran meningkat. Dalam makalah 2012, Hinton dan dua pelajarnya di Toronto menunjukkan bahawa rangkaian neural yang mendalam, yang dilatih dengan backprop, mengungguli sistem pengenalan gambar yang terbaik. Pembelajaran Dalam telah mula mendapat daya tarikan. Dunia memutuskan semalaman bahawa AI akan mengambil alih pada waktu pagi. Bagi Hinton, ini adalah kemenangan yang dialu-alukan.

Medan penyelewengan realiti

Rangkaian saraf biasanya digambarkan sebagai sandwic, lapisannya saling tumpang tindih. Lapisan ini mengandungi neuron tiruan, yang pada asasnya merupakan unit komputasi kecil yang menyala - seperti neuron sebenar - dan menyebarkan kegembiraan ini ke neuron lain yang bersangkutan. Pengujaan neuron diwakili oleh bilangan, katakanlah 0.13 atau 32.39, yang menentukan tahap pengujaan neuron. Dan ada satu lagi nombor penting, pada setiap hubungan antara kedua neuron, yang menentukan berapa banyak pengujaan yang harus dipindahkan dari satu ke yang lain. Nombor ini memodelkan kekuatan sinaps antara neuron di otak. Semakin tinggi bilangannya, semakin kuat hubungannya, yang bermaksud semakin banyak kegembiraan mengalir dari satu ke yang lain.

Salah satu aplikasi rangkaian neural dalam yang paling berjaya adalah pengecaman gambar. Hari ini terdapat program yang dapat mengenali jika terdapat hot dog dalam gambar. Sepuluh tahun yang lalu mereka tidak mungkin berlaku. Untuk menjadikannya berfungsi, pertama anda perlu mengambil gambar. Demi kesederhanaan, katakan ini adalah gambar hitam putih 100 x 100 piksel. Anda memasukkannya ke jaringan saraf dengan mengatur penembakan setiap neuron yang disimulasikan di lapisan input sehingga akan sama dengan kecerahan setiap piksel. Ini adalah lapisan bawah sandwic: 10,000 neuron (100 x 100) mewakili kecerahan setiap piksel dalam gambar.

Kemudian anda menghubungkan lapisan neuron besar ini ke lapisan neuron besar yang lain, yang sudah lebih tinggi, katakanlah, beberapa ribu, dan mereka, pada gilirannya, ke lapisan lain dari beberapa ribu neuron, tetapi kurang, dan seterusnya. Akhirnya, lapisan atas sandwic - lapisan keluaran - akan terdiri daripada dua neuron - satu mewakili hot dog dan yang lain bukan hot dog. Ideanya adalah untuk melatih rangkaian saraf untuk melepaskan hanya neuron pertama jika terdapat hot dog dalam gambar, dan yang kedua jika tidak. Backprop, teknik backpropagation di mana Hinton telah membina kerjayanya, melakukan hal itu.

Image
Image

Backprop sangat mudah, walaupun berfungsi paling baik dengan sejumlah besar data. Inilah sebabnya mengapa data besar sangat penting bagi AI - mengapa Facebook dan Google begitu meminati data tersebut, dan mengapa Institut Vektor memutuskan untuk berhubung dengan empat hospital terbesar di Kanada dan berkongsi data.

Dalam kes ini, data berupa berjuta-juta gambar, beberapa dengan hot dog, beberapa tanpa; caranya adalah dengan menandakan gambar-gambar ini sebagai anjing panas. Semasa pertama kali membuat rangkaian saraf, hubungan antara neuron mempunyai bobot rawak - nombor rawak yang mengatakan berapa banyak pengujaan yang dihantar melalui setiap sambungan. Seolah-olah sinaps otak belum diselaraskan. Tujuan backprop adalah untuk mengubah bobot ini agar rangkaian berfungsi: sehingga ketika anda memberi makan gambar hot dog ke lapisan paling bawah, neuron hot-dog di lapisan paling atas terbakar.

Katakan anda mengambil gambar tutorial piano pertama. Anda menukar intensiti piksel gambar 100 x 100 menjadi 10.000 nombor, satu untuk setiap neuron di lapisan bawah rangkaian. Semasa pengujaan menyebar melalui rangkaian sesuai dengan kekuatan sambungan neuron di lapisan bersebelahan, semuanya secara beransur-ansur sampai ke lapisan terakhir, salah satu dari dua neuron yang menentukan apakah ada hot dog dalam gambar. Oleh kerana ini adalah gambar piano, neuron hot dog harus menunjukkan sifar, dan neuron bukan hot dog harus menunjukkan bilangan yang lebih tinggi. Katakan perkara tidak berfungsi seperti itu. Katakan rangkaian salah mengenai imej. Backprop adalah prosedur untuk memperkuat kekuatan setiap sambungan dalam rangkaian, yang membolehkan anda memperbaiki kesalahan dalam contoh latihan yang diberikan.

Bagaimana ia berfungsi? Anda mulakan dengan dua neuron terakhir dan cari tahu betapa salahnya: apakah perbezaan antara nombor penembakan mereka dan apa sebenarnya yang sepatutnya. Kemudian anda melihat setiap sambungan yang membawa kepada neuron ini - turun ke lapisan - dan menentukan sumbangannya terhadap ralat tersebut. Anda terus melakukan ini sehingga anda sampai ke rangkaian sambungan pertama di bahagian bawah rangkaian. Pada ketika ini, anda tahu bagaimana penyambungan individu menyumbang kepada ralat keseluruhan. Akhirnya, anda mengubah semua bobot untuk mengurangkan kemungkinan keseluruhan kesilapan. Apa yang disebut "teknik penyebaran ralat" ini adalah bahawa anda menjalankan kesilapan kembali melalui rangkaian, bermula dari belakang, keluar.

Kehebatan mula berlaku apabila anda melakukannya dengan berjuta-juta atau berbilion gambar: rangkaian mula menentukan dengan baik sama ada gambar itu hot dog atau tidak. Dan yang lebih mengagumkan ialah lapisan individu rangkaian pengecam gambar ini mula "melihat" gambar dengan cara yang sama seperti yang dilakukan oleh sistem visual kita sendiri. Maksudnya, lapisan pertama mengesan kontur - neuron dipecat ketika ada kontur dan tidak dipecat apabila tidak; lapisan seterusnya menentukan set jalan, seperti sudut; lapisan seterusnya mula membezakan bentuk; lapisan seterusnya menemui pelbagai jenis elemen seperti "bun terbuka" atau "roti tertutup" kerana neuron yang sesuai diaktifkan. Rangkaian ini mengatur dirinya menjadi lapisan hierarki tanpa diprogramkan dengan cara ini.

Kecerdasan sejati tidak keliru apabila masalahnya berubah sedikit.

Inilah yang sangat mengejutkan semua orang. Tidak begitu banyak bahawa rangkaian saraf pandai mengklasifikasikan gambar hot dog: mereka membina gambaran idea. Dengan teks, ini menjadi lebih jelas. Anda dapat memberi teks Wikipedia, berbilion-bilion kata, ke rangkaian saraf sederhana, mengajarkannya untuk memberikan setiap kata dengan angka yang sesuai dengan kegembiraan setiap neuron di lapisan. Sekiranya anda menganggap semua nombor ini sebagai koordinat dalam ruang yang kompleks, anda akan menemui titik, yang dikenali dalam konteks ini sebagai vektor, untuk setiap perkataan di ruang tersebut. Kemudian anda melatih rangkaian sehingga kata-kata yang muncul berdampingan di halaman Wikipedia akan dikurniakan koordinat yang serupa - dan voila, sesuatu yang aneh berlaku: kata-kata dengan makna yang serupa akan muncul bersebelahan di ruang ini. "Gila" dan "kecewa" akan berada di sana; "Tiga" dan "tujuh" juga. Selanjutnya,aritmetik vektor membolehkan anda mengurangkan vektor "Perancis" dari "Paris", menambahkannya ke "Itali" dan mencari "Rom" berdekatan. Tidak ada yang memberitahu rangkaian saraf bahawa Rom adalah untuk Itali sama seperti Paris untuk Perancis.

"Sungguh menakjubkan," kata Hinton. "Ini mengejutkan." Rangkaian saraf dapat dilihat sebagai usaha untuk mengambil sesuatu - gambar, kata-kata, rakaman perbualan, data perubatan - dan meletakkannya, seperti yang dikatakan oleh ahli matematik, ruang vektor multidimensi di mana jarak atau jarak yang jauh akan mencerminkan aspek yang paling penting dari dunia nyata. Hinton percaya bahawa inilah yang dilakukan oleh otak. "Jika anda ingin mengetahui apa itu pemikiran," katanya, "Saya dapat menyampaikannya kepada Anda dalam serangkaian kata. Saya boleh katakan, "John berfikir 'oops.' Tetapi jika anda bertanya: apa yang difikirkan? Apa maksudnya John mempunyai pemikiran ini? Bagaimanapun, di kepalanya tidak ada tanda kutip pembuka, "oops", petikan penutup, secara umum, tidak ada perkara seperti itu. Beberapa aktiviti saraf sedang berlaku di kepalanya. " Gambar besar aktiviti saraf, jika anda seorang ahli matematik, boleh diambil dalam ruang vektor,di mana aktiviti setiap neuron akan sesuai dengan nombor, dan setiap nombor akan sesuai dengan koordinat vektor yang sangat besar. Bagi Hinton, pemikiran adalah tarian vektor.

Sekarang jelas mengapa Institut Vektor disebut itu?

Hinton menciptakan sejenis bidang penyimpangan realiti, perasaan yakin dan semangat disalurkan kepada anda, menanamkan kepercayaan bahawa tidak ada yang mustahil bagi vektor. Bagaimanapun, mereka telah membuat kereta memandu sendiri, komputer yang mengesan barah, penterjemah bahasa lisan segera.

Hanya apabila anda keluar dari bilik, anda masih ingat bahawa sistem pembelajaran mendalam ini masih cukup bodoh walaupun mempunyai daya pemikiran yang kuat. Komputer yang melihat tumpukan donat di atas meja dan secara automatik melabelnya sebagai "tumpukan donat di atas meja" nampaknya memahami dunia; tetapi ketika program yang sama melihat seorang gadis menggosok gigi dan mengatakan bahawa dia adalah "budak lelaki dengan tongkat besbol", anda menyedari betapa sukarnya pemahaman ini, jika ada.

Rangkaian saraf hanyalah pengecam corak yang tidak berakal dan samar-samar, dan betapa berguna pengecam corak itu - bagaimanapun, mereka berusaha untuk mengintegrasikannya ke dalam perisian apa pun - mereka paling baik adalah jenis kecerdasan terhad yang mudah ditipu. Jaringan saraf yang mendalam yang mengenali gambar boleh menjadi keliru jika anda menukar satu piksel atau menambahkan bunyi visual yang tidak dapat dilihat oleh manusia. Hampir sekerap kita menemui cara baru untuk menggunakan pembelajaran mendalam, kita sering menghadapi batasannya. Kereta memandu sendiri tidak boleh memandu dalam keadaan yang belum pernah dilihat sebelumnya. Mesin tidak dapat menghuraikan ayat yang memerlukan akal dan pemahaman tentang bagaimana dunia berfungsi.

Image
Image

Pembelajaran mendalam meniru apa yang berlaku di otak manusia dengan cara, tetapi secara dangkal - yang mungkin menjelaskan mengapa kecerdasannya sangat dangkal pada masa-masa. Backprop tidak dijumpai semasa perendaman otak, cuba menguraikan pemikiran itu sendiri; ia berkembang dari model pembelajaran haiwan melalui percubaan dan kesilapan dalam eksperimen kuno. Dan sebahagian besar langkah penting yang telah diambil sejak penubuhannya tidak termasuk perkara baru mengenai ilmu saraf; ini adalah penambahbaikan teknikal yang pantas dilakukan oleh ahli matematik dan jurutera selama bertahun-tahun. Apa yang kita ketahui mengenai kecerdasan tidak ada yang dibandingkan dengan apa yang kita belum tahu mengenainya.

David Duvenaud, seorang penolong profesor di jabatan yang sama dengan Hinton di University of Toronto, mengatakan pembelajaran mendalam serupa dengan kejuruteraan sebelum pengenalan fizik. "Seseorang menulis sebuah karya dan berkata: 'Saya membuat jambatan ini, dan sangat berharga!' Yang lain menulis, "Saya membuat jambatan ini dan runtuh, tetapi saya menambah sokongan dan ia berdiri." Dan semua orang tergila-gila dengan sokongan. Seseorang menambah lengkungan - dan semua orang seperti itu: lengkungan keren! Dengan fizik, anda sebenarnya dapat mengetahui apa yang akan berfungsi dan mengapa. Kami baru-baru ini mulai bergerak ke arah sekurang-kurangnya pemahaman mengenai kecerdasan buatan."

Dan Hinton sendiri mengatakan: "Sebilangan besar persidangan membincangkan tentang melakukan perubahan kecil dan bukannya berfikir keras dan bertanya:" Mengapa apa yang kita lakukan sekarang tidak berjaya? Apakah sebabnya? Mari fokus pada perkara ini."

Sukar untuk mendapatkan perspektif luar apabila semua yang anda lihat adalah kemajuan selepas kemajuan. Tetapi kemajuan terkini dalam AI kurang saintifik dan lebih banyak kejuruteraan. Walaupun kita mempunyai pemahaman yang lebih baik mengenai perubahan apa yang akan meningkatkan sistem pembelajaran yang mendalam, kita masih mempunyai idea yang tidak jelas tentang bagaimana sistem ini berfungsi dan jika mereka dapat bergabung menjadi sesuatu yang sekuat fikiran manusia.

Penting untuk difahami jika kita dapat mengekstrak semua yang kita dapat dari bahagian belakang. Sekiranya demikian, maka kita akan mempunyai dataran tinggi dalam pengembangan kecerdasan buatan.

Sabar

Sekiranya anda ingin melihat kejayaan seterusnya, seperti kerangka untuk mesin dengan kecerdasan yang jauh lebih fleksibel, anda harus, secara teori, beralih kepada penyelidikan yang serupa dengan penyelidikan backprop pada tahun 80-an: ketika orang pintar menyerah kerana idea mereka belum berfungsi. …

Beberapa bulan yang lalu, saya mengunjungi Pusat Minda, Otak dan Mesin, sebuah institusi serbaguna yang ditempatkan di MIT, untuk menyaksikan rakan saya Eyal Dechter mempertahankan disertasi dalam sains kognitif. Sebelum permulaan persembahan, isterinya Amy, anjingnya Ruby dan anak perempuannya Suzanne menyokongnya dan mengucapkan semoga berjaya.

Eyal memulakan ucapannya dengan pertanyaan yang menarik: bagaimana mungkin Suzanne, yang baru berusia dua tahun, belajar bercakap, bermain, mengikuti cerita? Apa yang ada di otak manusia yang membolehkannya belajar dengan baik? Adakah komputer akan belajar belajar dengan begitu cepat dan lancar?

Kami memahami fenomena baru dari segi perkara yang sudah kita fahami. Kami membahagikan domain menjadi beberapa bahagian dan memeriksanya secara berasingan. Eyal adalah ahli matematik dan pengaturcara, dia memikirkan tugas - seperti membuat souffle - sebagai program komputer yang kompleks. Tetapi anda tidak belajar bagaimana membuat soufflé dengan menghafal arahan program beratus-ratus minit seperti "putar siku anda 30 darjah, kemudian lihat di atas meja, kemudian panjangkan jari anda, lalu …". Sekiranya anda harus melakukan ini dalam setiap kes baru, pembelajaran akan menjadi tidak tertahankan dan anda akan berhenti berkembang. Sebagai gantinya, kita melihat langkah-langkah tingkat tinggi seperti "mengalahkan orang putih" dalam program, yang mereka sendiri terdiri dari subrutin seperti "memecahkan telur" dan "memisahkan putih dari kuning telur".

Komputer tidak melakukan ini dan oleh itu kelihatan bodoh. Untuk belajar mendalam mengenali hot dog, anda harus memberi makan 40 juta gambar hot dog. Apa yang Suzanne kenali hot dog, tunjukkan saja hot dog kepadanya. Dan jauh sebelum itu, dia akan memiliki pemahaman tentang bahasa, yang jauh lebih mendalam daripada pengakuan akan munculnya kata-kata terpisah. Tidak seperti komputer, kepalanya mempunyai idea tentang bagaimana dunia berfungsi. "Ini mengejutkan saya bahawa orang takut komputer akan mengambil pekerjaan mereka," kata Eyal. "Komputer tidak akan dapat menggantikan peguam kerana peguam melakukan sesuatu yang sukar. Tetapi kerana peguam mendengar dan bercakap dengan orang. Dalam pengertian ini, kita sangat jauh dari semua ini."

Kepintaran sejati tidak akan keliru jika anda sedikit mengubah syarat untuk menyelesaikan masalah. Dan tesis utama Eyal adalah untuk menunjukkan dengan tepat ini, secara asasnya, bagaimana membuat komputer berfungsi dengan cara ini: menerapkan dengan jelas semua yang sudah diketahui untuk menyelesaikan masalah baru, cepat memahami, menjadi pakar dalam bidang yang sama sekali baru.

Pada dasarnya, inilah yang disebutnya algoritma penerokaan-mampatan. Ini memberi komputer fungsi pengaturcara, membangun perpustakaan komponen modular yang dapat digunakan kembali sehingga program yang lebih kompleks dapat dibuat. Tanpa mengetahui apa-apa mengenai domain baru, komputer cuba menyusun pengetahuan mengenainya, hanya mempelajarinya, menyatukan apa yang telah ditemui dan mempelajarinya lebih jauh, seperti kanak-kanak.

Penasihatnya, Joshua Tenenbaum, adalah salah seorang penyelidik AI yang paling terkenal. Nama Tenenbaum muncul dalam separuh perbualan saya dengan saintis lain. Beberapa orang penting di DeepMind - pasukan pembangunan AlphaGo yang legendaris mengalahkan Juara Go Dunia pada tahun 2016 - telah bekerja di bawahnya. Dia terlibat dalam sebuah startup yang berusaha memberi kereta memandu sendiri pemahaman intuitif mengenai fizik dan niat asas pemandu lain, sehingga mereka dapat menjangka dengan lebih baik apa yang terjadi dalam situasi yang belum pernah mereka hadapi sebelumnya.

Tesis Eyal belum diterapkan dalam praktik, bahkan belum diperkenalkan ke dalam program. "Masalah yang sedang diusahakan Eyal sangat, sangat sukar," kata Tenenbaum. "Ia memerlukan banyak generasi untuk dilalui."

Ketika kami duduk minum secawan kopi, Tenenbaum mengatakan bahawa dia sedang meneliti sejarah backprop untuk mendapatkan inspirasi. Selama beberapa dekad, backprop telah menjadi bentuk matematik yang menarik, yang kebanyakannya tidak mampu melakukan apa-apa. Oleh kerana komputer semakin pantas dan teknologi semakin sukar, keadaan berubah. Dia berharap sesuatu yang serupa akan berlaku pada karya sendiri dan hasil karya muridnya, tetapi "mungkin memerlukan beberapa dekad lagi."

Bagi Hinton, dia yakin bahawa mengatasi batasan AI adalah mewujudkan "jambatan antara sains komputer dan biologi." Backprop, dari sudut pandangan ini, adalah kejayaan pengkomputeran yang diilhamkan secara biologi; idea itu asalnya bukan dari bidang kejuruteraan, tetapi dari psikologi. Jadi sekarang Hinton cuba mengulangi muslihat ini.

Hari ini, rangkaian saraf terdiri daripada lapisan rata yang besar, tetapi di neokorteks manusia, neuron sebenar berbaris bukan sahaja secara melintang, tetapi juga secara menegak, dalam lajur. Hinton meneka maksud lajur ini - dalam penglihatan, misalnya, ia membolehkan anda mengenali objek walaupun anda mengubah pandangan anda. Oleh itu, dia mencipta versi buatan - dan memanggil mereka "kapsul" - untuk menguji teori ini. Sejauh ini, tidak ada yang keluar: kapsul tidak meningkatkan prestasi rangkaiannya. Tetapi 30 tahun yang lalu ia sama dengan backprop.

"Ia harus berfungsi," katanya mengenai teori kapsul, sambil menertawakan keberaniannya sendiri. "Dan yang belum berhasil hanyalah kerengsaan sementara."

Berdasarkan bahan dari Medium.com

Ilya Khel

Disyorkan: