Berfikir Seperti Orang: Apa Yang Akan Berlaku Jika Anda Menganugerahkan Mesin Dengan Teori Kesedaran - Pandangan Alternatif

Isi kandungan:

Berfikir Seperti Orang: Apa Yang Akan Berlaku Jika Anda Menganugerahkan Mesin Dengan Teori Kesedaran - Pandangan Alternatif
Berfikir Seperti Orang: Apa Yang Akan Berlaku Jika Anda Menganugerahkan Mesin Dengan Teori Kesedaran - Pandangan Alternatif

Video: Berfikir Seperti Orang: Apa Yang Akan Berlaku Jika Anda Menganugerahkan Mesin Dengan Teori Kesedaran - Pandangan Alternatif

Video: Berfikir Seperti Orang: Apa Yang Akan Berlaku Jika Anda Menganugerahkan Mesin Dengan Teori Kesedaran - Pandangan Alternatif
Video: Perkembangan Pola Pikir Manusia | Ilmu Alamiah Dasar Part 1 2024, Julai
Anonim

Bulan lalu, sepasukan pemain AI yang diajar sendiri mengalami kekalahan hebat berbanding pemain esports profesional. Pertunjukan pertunjukan, yang berlangsung sebagai sebahagian daripada Dota 2 The International World Championship, menunjukkan bahawa pemikiran strategi pasukan masih membolehkan seseorang mendapat kelebihan atas sebuah kereta.

AI yang terlibat adalah beberapa algoritma yang dikembangkan oleh OpenAI, di mana Elon Musk adalah salah satu pengasasnya. Kumpulan pemain digital, yang dipanggil OpenAI Five, belajar bermain Dota 2 sendiri, melalui percubaan dan kesilapan, bersaing antara satu sama lain.

Tidak seperti permainan logik catur atau papan yang sama, permainan berbilang pemain Dota 2 yang popular dan berkembang pesat dianggap bidang yang lebih serius untuk menguji kecerdasan buatan. Kesukaran keseluruhan permainan hanyalah satu faktor. Tidak cukup hanya dengan mengklik dengan cepat dengan tetikus dan mengeluarkan arahan kepada watak yang anda kendalikan. Untuk menang, perlu ada intuisi dan pemahaman tentang apa yang diharapkan dari pihak lawan pada waktu berikutnya, dan juga bertindak dengan sewajarnya sesuai dengan set pengetahuan ini untuk bersama-sama dengan usaha bersama menuju tujuan bersama - kemenangan. Komputer tidak mempunyai set kemampuan ini.

Sehingga kini, bahkan algoritma komputer pembelajaran mendalam yang paling luar biasa tidak mempunyai pemikiran strategik yang diperlukan untuk memahami tujuan dari tugas lawannya, sama ada AI atau manusia lain.

Menurut Wang, agar AI berjaya, ia perlu mempunyai kemahiran komunikasi yang mendalam yang berasal dari ciri kognitif seseorang yang paling penting - kehadiran kecerdasan.

Model keadaan mental sebagai simulasi

Video promosi:

Pada usia empat tahun, kanak-kanak biasanya mula memahami satu sifat sosial yang asas: fikiran mereka berbeza dengan yang lain. Mereka mula memahami bahawa setiap orang mempunyai apa yang mereka percayai, keinginan, emosi dan niat mereka. Dan, yang paling penting, membayangkan diri mereka berada di tempat orang lain, mereka dapat mula meramal tingkah laku orang-orang ini lebih jauh dan menjelaskannya. Dengan cara tertentu, otak mereka mula membuat banyak simulasi diri mereka sendiri, mengganti diri mereka di tempat orang lain dan menempatkan diri mereka di dalam persekitaran yang berbeza.

Model keadaan mental penting dalam memahami diri sebagai seorang dan juga memainkan peranan penting dalam interaksi sosial. Memahami orang lain adalah kunci untuk komunikasi yang berkesan dan mencapai tujuan bersama. Namun, kemampuan ini juga dapat menjadi pendorong kepercayaan palsu - idea yang membawa kita menjauh dari kebenaran objektif. Sebaik sahaja kemampuan untuk menggunakan model keadaan mental terganggu, misalnya, ini berlaku pada autisme, maka kemahiran "manusia" semula jadi, seperti kemampuan untuk menerangkan dan membayangkan, juga merosot.

Menurut Dr. Alan Winfield, profesor robotik di University of the West of England, model keadaan mental atau "teori fikiran" adalah ciri utama yang suatu hari akan membolehkan AI "memahami" orang, benda, dan robot lain.

Daripada kaedah pembelajaran mesin, di mana pelbagai lapisan rangkaian saraf mengambil maklumat secara individu dan "mengkaji" pangkalan data yang besar, Winston mencadangkan mengambil pendekatan yang berbeza. Daripada bergantung pada pembelajaran, Winston mencadangkan pra-pengaturcaraan AI dengan model dalamannya sendiri dan persekitaran yang akan menjawab soalan "bagaimana jika?" Yang mudah.

Sebagai contoh, bayangkan bahawa dua robot bergerak di sepanjang koridor yang sempit, AI mereka dapat mensimulasikan hasil tindakan selanjutnya yang akan mencegah perlanggaran mereka: belok kiri, kanan, atau terus lurus. Model dalaman ini pada dasarnya akan bertindak sebagai "mekanisme konsekuensi", bertindak sebagai semacam "akal sehat" yang akan membantu mengarahkan AI ke tindakan yang betul seterusnya dengan meramalkan perkembangan keadaan di masa depan.

Dalam sebuah kajian yang diterbitkan awal tahun ini, Winston menunjukkan robot prototaip yang mampu mencapai hasil tersebut. Mengantisipasi tingkah laku orang lain, robot berjaya melewati koridor tanpa perlanggaran. Sebenarnya, ini tidak menghairankan, kata penulis, tetapi robot "penuh perhatian", menggunakan pendekatan simulasi untuk menyelesaikan masalah, memerlukan 50 peratus lebih lama untuk menyelesaikan koridor. Walaupun begitu, Winston membuktikan bahawa kaedah simulasi dalamannya berfungsi: "Ini adalah titik permulaan yang sangat kuat dan menarik dalam pengembangan teori kecerdasan buatan," kata saintis itu.

Winston berharap akhirnya AI dapat memperoleh kemampuan untuk menggambarkan, menghasilkan semula keadaan secara mental. Model dalamannya sendiri dan yang lain akan membolehkan AI sedemikian mensimulasikan pelbagai senario, dan yang lebih penting lagi, untuk menentukan tujuan dan objektif khusus untuk masing-masing.

Ini jauh berbeza dengan algoritma pembelajaran mendalam, yang, pada dasarnya, tidak dapat menjelaskan mengapa mereka sampai pada kes ini atau kesimpulan ketika menyelesaikan masalah. Model pembelajaran dalam kotak hitam sebenarnya adalah masalah sebenar dalam mempercayai sistem sedemikian. Masalah ini boleh menjadi sangat akut, misalnya, ketika mengembangkan robot kejururawatan untuk hospital atau orang tua.

AI yang bersenjata dengan model keadaan mental dapat meletakkan dirinya di tangan tuannya dan memahami dengan betul apa yang dikehendaki daripadanya. Kemudian dia dapat mengenal pasti penyelesaian yang sesuai dan, setelah menjelaskan keputusan-keputusan ini kepada orang itu, dia pasti akan memenuhi tugas yang diberikan kepadanya. Semakin kurang ketidakpastian dalam keputusan, semakin yakin pada robot seperti itu.

Model keadaan mental dalam rangkaian saraf

DeepMind mengambil pendekatan yang berbeza. Daripada pra-pengaturcaraan algoritma untuk mekanisme akibatnya, mereka telah mengembangkan beberapa rangkaian saraf yang menunjukkan kesamaan dengan model tingkah laku psikologi kolektif.

Algoritma AI "ToMnet" dapat mempelajari tindakan dengan memerhatikan rangkaian neutron lain. ToMNet sendiri adalah kumpulan tiga rangkaian neural: yang pertama berdasarkan keanehan memilih AI lain mengikut tindakan terbaru mereka. Yang kedua membentuk konsep umum mood semasa - kepercayaan dan niat mereka pada satu ketika. Hasil kolektif kerja dua rangkaian saraf diterima oleh yang ketiga, yang meramalkan tindakan lebih lanjut dari AI berdasarkan situasi. Seperti pembelajaran mendalam, ToMnet menjadi lebih berkesan kerana memperoleh pengalaman dengan mengikuti orang lain.

Dalam satu eksperimen, ToMnet "menyaksikan" tiga ejen AI manuver di ruang digital, mengumpulkan kotak berwarna. Setiap AI mempunyai keunikan tersendiri: satu "buta" - tidak dapat menentukan bentuk dan penempatan di dalam bilik. Yang lain adalah "sclerotic": dia tidak dapat mengingat langkah terakhirnya. Yang ketiga dapat dilihat dan diingati.

Selepas latihan, ToMnet mula meramalkan pilihan setiap AI dengan memerhatikan tindakannya. Sebagai contoh, "buta" sentiasa bergerak hanya di sepanjang dinding. ToMnet ingat perkara ini. Algoritma ini juga dapat meramalkan tingkah laku AI masa depan dengan betul dan, yang lebih penting, dapat difahami ketika AI menghadapi gambaran persekitaran yang salah.

Dalam satu ujian, satu pasukan saintis memprogramkan satu AI untuk "rabun" dan mengubah susun atur sebuah bilik. Ejen dengan penglihatan normal dengan cepat menyesuaikan diri dengan susun atur baru, tetapi lelaki rabun itu terus mengikuti jalan asalnya, dengan salah mempercayai bahawa dia masih berada di persekitaran lama. ToMnet dengan cepat memperhatikan ciri ini dan meramalkan tingkah laku ejen dengan tepat, meletakkan dirinya di tempatnya.

Menurut Dr Alison Gopnik, psikologi perkembangan di University of California, Berkeley, yang tidak terlibat dalam kajian ini, tetapi yang mengetahui penemuan ini, hasil ini menunjukkan bahawa rangkaian saraf mempunyai kemampuan luar biasa untuk mempelajari pelbagai kemahiran sendiri, melalui pemerhatian orang lain. Pada masa yang sama, menurut pakar, masih sangat awal untuk mengatakan bahawa AI ini telah mengembangkan model buatan dari keadaan mental.

Menurut Dr Josh Tenebaum dari Massachusetts Institute of Technology, yang juga tidak terlibat dalam kajian ini, "pemahaman" ToMnet sangat terkait dengan konteks persekitaran pembelajaran - ruangan yang sama dan ejen AI tertentu yang tugasnya adalah mengumpulkan kotak. Kekangan ini dalam kerangka kerja tertentu menjadikan ToMnet kurang efektif dalam meramalkan tingkah laku dalam lingkungan baru yang radikal, berbanding dengan anak-anak yang sama yang dapat menyesuaikan diri dengan situasi baru. Algoritma, menurut saintis, tidak akan dapat mengatasi pemodelan tindakan AI atau orang yang sama sekali berbeza.

Bagaimanapun, karya Winston dan DeepMind menunjukkan bahawa komputer mula menunjukkan asas "pemahaman" antara satu sama lain, walaupun pemahaman ini masih hanya belum sempurna. Dan ketika mereka terus meningkatkan kemahiran ini, saling memahami dengan lebih baik dan lebih baik, waktunya akan tiba ketika mesin dapat memahami kerumitan dan kerumitan kesedaran kita sendiri.

Nikolay Khizhnyak

Disyorkan: