Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Membetulkannya? - Pandangan Alternatif

Isi kandungan:

Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Membetulkannya? - Pandangan Alternatif
Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Membetulkannya? - Pandangan Alternatif

Video: Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Membetulkannya? - Pandangan Alternatif

Video: Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Membetulkannya? - Pandangan Alternatif
Video: 5 Potensi Mengerikan Kecerdasan Buatan, ARTIFICIAL INTELLIGENCE 2024, Mungkin
Anonim

Kepintaran buatan sudah dapat meramalkan masa depan. Polis menggunakannya untuk menyusun peta yang menunjukkan kapan dan di mana jenayah boleh berlaku. Doktor menggunakannya untuk meramalkan kapan pesakit mungkin mengalami strok atau serangan jantung. Para saintis bahkan berusaha memberikan imajinasi kepada AI agar dapat menjangka kejadian yang tidak dijangka.

Banyak keputusan dalam hidup kita memerlukan ramalan yang baik, dan agen AI hampir selalu lebih baik daripada manusia. Namun untuk semua kemajuan teknologi ini, kita masih kurang percaya pada ramalan yang diberikan oleh kecerdasan buatan. Orang tidak terbiasa bergantung pada AI dan lebih suka mempercayai pakar manusia, walaupun pakar tersebut salah.

Image
Image

Sekiranya kita mahukan kecerdasan buatan memberi manfaat kepada manusia, kita perlu belajar mempercayainya. Untuk melakukan ini, kita perlu memahami mengapa orang begitu gigih enggan mempercayai AI.

Percayalah Dr. Robot

Percubaan IBM untuk menghadirkan program komputer super kepada ahli onkologi (Watson for Oncology) gagal. AI telah berjanji untuk memberikan cadangan rawatan berkualiti tinggi untuk 12 kanser, merangkumi 80% kes di dunia. Sehingga kini, lebih daripada 14,000 pesakit telah menerima cadangan berdasarkan perhitungannya.

Tetapi ketika doktor pertama kali menemui Watson, mereka mendapati diri mereka berada dalam keadaan yang agak sukar. Di satu pihak, sementara Watson memberikan garis panduan rawatan yang sesuai dengan pendapat mereka sendiri, profesion perubatan tidak melihat banyak nilai dalam cadangan AI. Komputer super itu hanya memberitahu mereka apa yang sudah mereka ketahui, dan cadangan ini tidak mengubah perlakuan yang sebenarnya. Ini mungkin memberi ketenangan fikiran dan keyakinan kepada doktor terhadap keputusan mereka sendiri. Tetapi IBM belum membuktikan bahawa Watson sebenarnya meningkatkan kadar kelangsungan hidup kanser.

Video promosi:

Image
Image

Sebaliknya, jika Watson membuat cadangan yang bertentangan dengan pendapat pakar, doktor menyimpulkan bahawa Watson tidak cekap. Dan mesin tidak dapat menjelaskan mengapa perlakuannya berfungsi kerana algoritma pembelajaran mesinnya terlalu rumit untuk difahami oleh manusia. Oleh itu, ini menyebabkan semakin tidak percaya, dan banyak doktor mengabaikan cadangan AI, bergantung pada pengalaman mereka sendiri.

Akibatnya, Ketua Rakan Perubatan IBM Watson, MD Anderson Cancer Center, baru-baru ini mengumumkan bahawa pihaknya membatalkan program tersebut. Hospital Denmark juga mengatakan bahawa ia meninggalkan program tersebut setelah mendapati bahawa ahli onkologi tidak bersetuju dengan Watson pada dua daripada tiga kali.

Masalah dengan onkologi Watson adalah bahawa doktor tidak mempercayainya. Kepercayaan orang sering bergantung pada pemahaman kita tentang bagaimana orang lain berfikir dan pengalaman kita sendiri, yang membina keyakinan terhadap pendapat mereka. Ini mewujudkan rasa keselamatan psikologi. AI, sebaliknya, agak baru dan tidak dapat difahami oleh manusia. Ia membuat keputusan berdasarkan sistem analisis yang canggih untuk mengenal pasti potensi corak tersembunyi dan isyarat lemah dari sejumlah besar data.

Walaupun ia dapat dijelaskan dalam istilah teknikal, proses pembuatan keputusan AI biasanya terlalu rumit untuk difahami oleh kebanyakan orang. Berinteraksi dengan sesuatu yang tidak kita fahami boleh menyebabkan kegelisahan dan menimbulkan rasa kehilangan kawalan. Ramai orang tidak memahami bagaimana dan dengan apa AI berfungsi, kerana ia berlaku di suatu tempat di belakang skrin, di latar belakang.

Atas sebab yang sama, mereka lebih mengetahui kes di mana AI salah: fikirkan algoritma Google yang mengklasifikasikan orang-orang warna sebagai gorila; chatbot Microsoft yang menjadi Nazi dalam masa kurang dari sehari; Kenderaan Tesla dalam mod autopilot mengakibatkan kemalangan maut. Contoh-contoh malang ini telah mendapat perhatian media yang tidak proporsional, menyoroti agenda yang tidak boleh kita bergantung pada teknologi. Pembelajaran mesin tidak boleh dipercayai 100%, sebahagiannya kerana manusia merancangnya.

Perpecahan dalam masyarakat?

Perasaan yang dibangkitkan kecerdasan buatan jauh ke dalam sifat manusia. Para saintis baru-baru ini melakukan eksperimen di mana mereka meninjau orang yang menonton filem mengenai kecerdasan buatan (fantasi) mengenai topik automasi dalam kehidupan seharian. Ternyata tanpa mengira sama ada AI digambarkan dengan cara positif atau negatif, hanya menonton gambaran sinematik masa depan teknologi kita mempolarisasi sikap peserta. Optimis menjadi lebih optimis, dan skeptis semakin hampir.

Ini menunjukkan bahawa orang bersikap berat sebelah terhadap AI berdasarkan alasan mereka sendiri, kecenderungan kecenderungan pengesahan: kecenderungan untuk mencari atau menafsirkan maklumat sedemikian rupa untuk mengesahkan konsep yang sudah ada. Ketika AI semakin muncul di media, ia dapat menyumbang kepada perpecahan yang mendalam dalam masyarakat, jurang antara mereka yang menggunakan AI dan mereka yang menolaknya. Sekumpulan orang yang dominan boleh mendapat kelebihan atau kekurangan.

Tiga jalan keluar dari krisis keyakinan AI

Nasib baik, kami mempunyai beberapa pemikiran tentang bagaimana menangani kepercayaan terhadap AI. Pengalaman dengan AI sahaja dapat meningkatkan sikap orang terhadap teknologi ini secara dramatik. Terdapat juga bukti bahawa semakin kerap anda menggunakan teknologi tertentu (seperti Internet), semakin anda mempercayainya.

Penyelesaian lain mungkin dengan membuka kotak hitam algoritma pembelajaran mesin dan membuatnya berfungsi dengan lebih telus. Syarikat seperti Google, Airbnb dan Twitter sudah menerbitkan laporan ketelusan mengenai pertanyaan dan pendedahan kerajaan. Amalan semacam ini dalam sistem AI akan membantu orang memperoleh pemahaman yang diperlukan tentang bagaimana algoritma membuat keputusan.

Penyelidikan menunjukkan bahawa melibatkan orang dalam membuat keputusan AI juga akan meningkatkan kepercayaan dan membolehkan AI belajar dari pengalaman manusia. Kajian itu mendapati bahawa orang yang diberi kesempatan untuk sedikit mengubah algoritma merasa lebih puas dengan hasil kerjanya, kemungkinan besar disebabkan oleh rasa unggul dan kemampuan untuk mempengaruhi hasil masa depan.

Kita tidak perlu memahami cara kerja sistem AI yang rumit, tetapi jika kita memberikan sedikit maklumat dan kawalan kepada pengguna tentang bagaimana sistem ini dilaksanakan, mereka akan mempunyai lebih banyak keyakinan dan keinginan untuk merangkul AI dalam kehidupan seharian mereka.

Ilya Khel

Disyorkan: