Kecerdasan Buatan Yang Sebenar Dapat Dihasilkan Dengan Menyelesaikan Tiga Masalah Utama - - Pandangan Alternatif

Isi kandungan:

Kecerdasan Buatan Yang Sebenar Dapat Dihasilkan Dengan Menyelesaikan Tiga Masalah Utama - - Pandangan Alternatif
Kecerdasan Buatan Yang Sebenar Dapat Dihasilkan Dengan Menyelesaikan Tiga Masalah Utama - - Pandangan Alternatif

Video: Kecerdasan Buatan Yang Sebenar Dapat Dihasilkan Dengan Menyelesaikan Tiga Masalah Utama - - Pandangan Alternatif

Video: Kecerdasan Buatan Yang Sebenar Dapat Dihasilkan Dengan Menyelesaikan Tiga Masalah Utama - - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, Mungkin
Anonim

Pada persidangan pembelajaran mesin dalam di London bulan lalu, satu topik dibangkitkan beberapa kali: pentingnya memahami apa yang sebenarnya kita lakukan. Walaupun syarikat seperti Google terus mendakwa bahawa kita semua hidup di "abad pertama AI," ketika pembelajaran mesin baru mula menemui bidang aktiviti baru (seperti pengucapan pertuturan dan imej), mereka yang benar-benar di barisan hadapan penyelidikan AI, berusaha untuk menekankan bahawa terdapat banyak lagi cabaran yang harus ditangani sebelum usia AI yang sebenar tiba. Walaupun kita sudah mempunyai pembantu digital yang boleh bercakap seperti komputer dalam filem sci-fi, ini tidak bermaksud bahawa kita sangat serius untuk mencipta kecerdasan buatan yang sebenar.

Pada akhirnya, semua masalah yang menghalangi untuk mewujudkan AI sebenar adalah seperti berikut: jumlah maklumat yang perlu dilaburkan di dalamnya; dalam ketidakmampuan kita untuk membuat AI yang dapat mengatasi dengan baik dengan beberapa tugas sekaligus; sebenarnya, kita tidak tahu bagaimana sistem sedemikian seharusnya berfungsi. Teknologi pembelajaran mesin sudah mampu melakukan perkara yang luar biasa pada tahun 2016, tetapi perkara ini kadang-kadang sukar untuk dijelaskan, bahkan untuk penciptanya sendiri. Belum lagi berapa banyak wang yang dikenakan. Mari kita lihat dengan lebih dekat kerumitan yang dihadapi oleh jurutera AI hari ini.

Maklumat terlebih dahulu, kemudian AI

Kita semua memahami bahawa AI perlu mempunyai akses kepada maklumat untuk mengkaji dunia di sekeliling kita, tetapi kita tidak begitu memahami berapa banyak maklumat yang diperlukan. Menurut Neil Lawrence, profesor di Jabatan Pembelajaran Mesin di Universiti Sheffield dan anggota pasukan pengembangan teknologi AI di Amazon, sistem ini akan memerlukan beratus-ratus dan ribuan kali lebih banyak maklumat daripada manusia untuk belajar memahami dunia dan mengenali objek-objek tertentu.

"Sekiranya anda melihat semua industri dan bidang di mana jurutera telah mencapai beberapa kejayaan dalam pembelajaran mendalam mesin, anda dapat dengan segera melihat berapa banyak maklumat yang digunakan untuk menyelesaikan semua masalah ini," kata Lawrence, yang memetik sebagai contoh teknologi pengecaman pertuturan dan imej yang sama.

Syarikat seperti Google dan Facebook mempunyai akses ke banyak maklumat, yang tentu saja menjadikannya lebih mudah untuk membuat pelbagai alat yang berguna (contohnya teknologi carian suara yang sama untuk Android).

Bagi Lawrence, maklumat sekarang adalah arang batu pada tahun-tahun awal revolusi industri. Sebagai contoh, Lawrence memetik Thomas Newcomen, orang Inggeris yang mencipta pada tahun 1712 (sebenarnya 60 tahun sebelum penciptaan mesin seperti itu oleh James Watt) versi primitif mesin wap yang dikuasakan oleh arang batu. Penemuan Newcomen tidak sempurna. Berbanding dengan mesin Watt, ia terbukti tidak cekap dan terlalu mahal untuk digunakan. Sebagian besar, hanya dapat digunakan di lombong arang batu, di mana jumlah bahan bakar yang diperlukan untuk kekurangan mesin.

Contoh teknologi pengecaman gambar terbuka Facebook

Video promosi:

Image
Image

Lawrence percaya mungkin ada ratusan Newcomen di seluruh dunia yang mengembangkan model pembelajaran mesin mereka sendiri. Mungkin, ada idea-idea revolusioner di antara mereka, tetapi tanpa teknologi mereka mengakses pangkalan data maklumat yang besar, kemungkinan besar, tidak ada yang akan tahu. Syarikat besar seperti Google, Facebook dan Microsoft - mereka adalah "pelombong arang batu" yang sangat moden. Mereka mempunyai akses ke jumlah maklumat yang tidak terhad, sehingga mereka dapat membuat sistem pembelajaran mesin yang tidak berkesan dan kemudian memperbaikinya. Permulaan kecil mungkin mempunyai idea hebat, tetapi mereka tidak akan pernah mencapai sesuatu yang berharga tanpa akses ke pangkalan maklumat.

Masalah ini menjadi lebih jelas apabila anda melihat kawasan di mana mendapatkan maklumat yang anda perlukan menjadi lebih sukar. Sebagai contoh, ambil sistem kesihatan, di mana AI dapat digunakan untuk melakukan tugas yang berkaitan dengan penglihatan mesin - mencari dan mengenali tumor ganas pada sinar-X, misalnya. Tetapi akses ke data tersebut biasanya sangat terhad. Faktor pembatas utama di sini, menurut Lawrence, adalah persepsi orang ramai mengenai akses yang tidak beretika oleh pihak ketiga terhadap maklumat seperti ini. Masalah utama, menurut Lawrence, bukan terletak pada mencari cara untuk menyebarkan maklumat, tetapi bagaimana membuat sistem pembelajaran mesin lebih efisien dan mengajar untuk bekerja dengan kurang maklumat. Dan peningkatan kecekapan ini, menurut saintis itu, boleh memakan masa 60 tahun yang sama.seperti yang berlaku pada kereta Watt.

Pengkhususan adalah jalan buntu. AI mesti dapat melakukan pelbagai tugas

Satu lagi cabaran utama yang dihadapi dalam pengembangan model pembelajaran mesin yang mendalam adalah hakikat bahawa semua sistem AI semasa kita, sebenarnya, sangat bodoh. Menurut Rya Hudsell, seorang penyelidik di DeepMind Google, sistem ini sebenarnya dapat diajarkan untuk melakukan tugas pengecaman kucing, bermain, dan pada masa yang sama menjadi sangat berkesan dalam melaksanakan tugas-tugas ini. Tetapi "pada masa ini di dunia tidak ada satu pun jaringan saraf dan metode lengkap yang akan melatihnya mengenali gambar, memainkan Space Invaders dan merenungkan muzik." Sebaliknya, rangkaian saraf merupakan asas utama untuk mewujudkan sistem pembelajaran mendalam untuk mesin.

Dan masalah ini jauh lebih ketara daripada yang kelihatannya pada pandangan pertama. Ketika DeepMind mengumumkan Februari lalu bahawa ia telah membangun sistem yang dapat memainkan 49 permainan Atari, itu benar-benar dapat dilihat sebagai pencapaian besar. Tetapi pada akhirnya ternyata bahawa setelah sistem menyelesaikan perjalanan satu permainan, setiap kali perlu dilatih untuk bermain yang lain. Hudsell menyatakan bahawa kita tidak dapat mengajar sistem untuk memainkan semua permainan sekaligus, kerana peraturan masing-masing akan bercampur satu sama lain dan akhirnya mengganggu tugas. Setiap kali anda mesti belajar semula mesin, dan setiap kali sistem "lupa" cara bermain permainan sebelumnya.

Untuk mencipta kecerdasan buatan umum, kami memerlukan sesuatu yang akan membantu kami mengajar mesin untuk melakukan beberapa tugas sekaligus. Sekarang kita bahkan tidak dapat melatih mereka bermain permainan,”kata Hadsell.

Penyelesaiannya dapat disembunyikan dalam apa yang disebut rangkaian saraf progresif - menggabungkan sistem pembelajaran mendalam yang bebas menjadi satu kesatuan untuk kerja yang lebih cekap dengan maklumat. Dalam artikel ilmiah yang diterbitkan yang menangani masalah ini, Hadsell dan pasukan penyelidiknya bercakap tentang bagaimana rangkaian saraf progresif mereka dapat menyesuaikan diri dalam permainan Pong, keadaan di mana setiap kali agak berbeza (dalam satu kes, warnanya berubah; yang lain, mereka bingung kawalan), jauh lebih pantas daripada rangkaian saraf "biasa", yang mesti dilatih sekali lagi.

Prinsip asas rangkaian saraf progresif

Image
Image

Kaedah ini terbukti sangat menjanjikan dan baru-baru ini digunakan untuk menyesuaikan senjata robotik, mempercepat proses pembelajaran dari seminggu hingga satu hari. Malangnya, kaedah ini juga mempunyai batasannya. Hudsell menyatakan bahawa dalam kasus jaringan saraf progresif, proses pembelajaran tidak dapat dikurangi dengan hanya menambahkan tugas baru ke memori mereka. Sekiranya anda terus menggabungkan sistem tersebut bersama-sama, cepat atau lambat anda akan menjadi "model yang terlalu kompleks yang tidak mungkin dapat dijejaki." Dalam kes ini, kita akan membincangkan tahap yang berbeza. Tahap di mana pelbagai tugas umumnya akan dilakukan dengan cara yang sama. Membina AI yang mampu merancang kerusi dan mencipta AI tahap kecerdasan manusia yang mampu menulis puisi dan menyelesaikan persamaan pembezaan bukanlah perkara yang sama.

AI boleh dipanggil AI jika kita dapat menunjukkan bagaimana ia berfungsi

Halangan menakutkan lain adalah memahami bagaimana kecerdasan buatan akan membuat kesimpulan ketika menyelesaikan masalah. Rangkaian saraf biasanya tidak dapat dilihat oleh pemerhati. Walaupun kita tahu bagaimana mereka dikumpulkan dan bagaimana maklumat mengalir melalui mereka, keputusan yang mereka ambil biasanya tidak dapat dijelaskan.

Contoh terbaik dari masalah ini ialah percubaan Virginia Tech. Para penyelidik telah membuat sistem penjejakan untuk rangkaian saraf yang merekodkan piksel dalam gambar digital yang mula dianalisis oleh komputer. Para penyelidik menunjukkan gambar rangkaian saraf bilik tidur dan mengajukan pertanyaan: "Apa yang tergantung di tingkap?" Mesin itu, bukannya melihat langsung ke tingkap, mula menganalisis gambar bermula dari lantai. Sebuah tempat tidur masuk ke bidang penglihatannya dan kereta itu menjawab: "ada tirai di tingkap." Jawapannya ternyata betul, tetapi hanya kerana sistem "diajar" untuk bekerja dengan jumlah data yang terhad. Berdasarkan gambar yang ditunjukkan, rangkaian saraf menyimpulkan bahawa jika foto menunjukkan bilik tidur, maka kemungkinan besar terdapat tirai di tingkap. Oleh itu, ketika perincian masuk ke bidang penglihatannya,yang biasanya terdapat di mana-mana bilik tidur (dalam kes ini, tempat tidur), dia tidak menganalisis gambar lebih lanjut. Dia mungkin tidak melihat tempat tidur ini, dia melihat langsir. Ini logik, tetapi sangat dangkal dan tertarik. Selain itu, banyak bilik tidur tidak mempunyai langsir!

Teknologi penjejakan hanyalah satu alat yang dapat membantu kita memahami apa yang mendorong mesin membuat keputusan tertentu, tetapi ada kaedah yang lebih baik yang dapat menambahkan lebih banyak logik dan analisis mendalam ke sistem pembelajaran mesin. Murray Shanahan, profesor robotik kognitif di Imperial College London, mengatakan bahawa penyelesaian terbaik adalah memikirkan semula paradigma kuno AI - AI simbolik, atau GOFAI (Kepintaran Buatan Lama yang Baik). Paradigma ini berpunca dari fakta bahawa tugas apa pun boleh dipecah menjadi unsur logik asas, di mana setiap kata hanyalah sekumpulan simbol sederhana yang kompleks. Dengan menggabungkan simbol-simbol ini - dalam tindakan, peristiwa, objek, dan sebagainya - pemikiran dapat disintesis. Anggap saja bahawa perkembangan seperti itu dilakukan pada masa ketika komputer berbentuk kotak raksasa seukuran sebuah ruangan, menggunakan pita magnetik (kerja bermula pada pertengahan tahun 50-an dan berlanjutan hingga akhir tahun 80-an abad yang lalu).

Cadangan Shanahan adalah untuk menggabungkan penerangan simbolik GOFAI dan teknologi pembelajaran mendalam. Ini akan memungkinkan untuk tidak hanya memberi maklumat sistem baru kepada mereka dan menunggu mereka menyimpulkan pola tingkah laku dan penyelesaian masalah tertentu berdasarkan maklumat ini, pendekatan Shanahan dirancang untuk memberi sistem ini sebagai titik permulaan untuk memahami dunia. Ini, menurutnya, tidak hanya akan menyelesaikan masalah ketelusan AI, tetapi juga masalah pembelajaran berpindah yang dijelaskan oleh Hadsell.

"Boleh dikatakan Breakout sangat mirip dengan Pong, kerana dalam kedua-dua kes itu digunakan 'platform' dan 'bola', tetapi dari sudut pandang persepsi dan logik manusia, mereka adalah dua permainan yang sama sekali berbeza. Dan hampir mustahil untuk membuat persamaan antara mereka. Ini seperti mencuba menggabungkan struktur atom dan struktur keseluruhan sistem suria."

Shanahan dan rakan-rakannya di Imperial College London kini sedang mengusahakan kaedah baru untuk pembelajaran mesin (yang mereka sebut sebagai pembelajaran rangsangan simbolik mendalam) dan telah menerbitkan beberapa eksperimen kecil. Kaedah ini masih dalam peringkat awal, dan oleh itu sukar untuk dinyatakan apakah ia akan berkembang ke sistem yang lebih besar yang berfungsi dengan pelbagai jenis data. Walaupun begitu, masih ada kemungkinan kaedah ini berkembang menjadi sesuatu yang lebih banyak. Lagipun, pembelajaran mendalam selalu menjadi bahagian yang paling membosankan dan membosankan dalam pengembangan AI sehingga para penyelidik menemui cara untuk mengakses data dengan cepat dan memperoleh daya pemprosesan yang besar. Cukup mungkin,sudah tiba masanya untuk kembali ke paradigma AI lama dan mencubanya dalam persekitaran baru.

NIKOLAY KHIZHNYAK