Bagaimana Untuk Menipu Algoritma Kecerdasan Buatan Dan Apa Itu? Pandangan Alternatif

Bagaimana Untuk Menipu Algoritma Kecerdasan Buatan Dan Apa Itu? Pandangan Alternatif
Bagaimana Untuk Menipu Algoritma Kecerdasan Buatan Dan Apa Itu? Pandangan Alternatif

Video: Bagaimana Untuk Menipu Algoritma Kecerdasan Buatan Dan Apa Itu? Pandangan Alternatif

Video: Bagaimana Untuk Menipu Algoritma Kecerdasan Buatan Dan Apa Itu? Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, September
Anonim

Di luar tingkap adalah 2022. Anda memandu kereta memandu sendiri, seperti biasa, melalui bandar. Kereta itu menghampiri tanda berhenti, yang telah dilaluinya berkali-kali, tetapi kali ini ia tidak berhenti di hadapannya. Bagi anda, tanda berhenti ini seperti yang lain. Tetapi untuk sebuah kereta, ia sama sekali berbeza. Beberapa minit sebelumnya, tanpa memberi amaran kepada siapa pun, penyerang telah menempelkan piring kecil di papan tanda, yang tidak dapat dilihat oleh mata manusia, tetapi teknologi mana yang tidak dapat disedari. Maksudnya, pelekat kecil pada tanda itu menjadikan tanda berhenti menjadi sesuatu yang sama sekali berbeza dengan tanda berhenti.

Semua ini mungkin kelihatan luar biasa. Tetapi bidang penyelidikan yang semakin meningkat membuktikan bahawa kecerdasan buatan dapat ditipu menjadi sesuatu seperti ini jika melihat beberapa perincian kecil yang sama sekali tidak dapat dilihat oleh manusia. Oleh kerana algoritma pembelajaran mesin semakin banyak muncul di jalan raya, kewangan kita, sistem penjagaan kesihatan kita, saintis komputer berharap dapat mempelajari lebih lanjut mengenai cara melindungi mereka dari serangan seperti itu - sebelum seseorang benar-benar berusaha memperbodohkan mereka.

Image
Image

"Ini menjadi perhatian yang semakin meningkat dalam pembelajaran mesin dan komuniti AI, terutama kerana algoritma ini digunakan semakin banyak," kata Daniel Lode, penolong profesor di Jabatan Sains Komputer dan Maklumat di University of Oregon. "Sekiranya spam melewati atau disekat oleh beberapa e-mel, ini bukan akhir dunia. Tetapi jika anda bergantung pada sistem penglihatan dalam kereta memandu sendiri yang memberitahu kereta bagaimana memandu tanpa melanggar apa-apa, taruhannya jauh lebih tinggi."

Sama ada mesin rosak atau diretas, algoritma pembelajaran mesin yang "melihat" dunia akan menderita. Begitu juga dengan kereta, panda kelihatan seperti gibbon, dan bas sekolah kelihatan seperti burung unta.

Dalam satu eksperimen, para saintis dari Perancis dan Swiss menunjukkan bagaimana gangguan seperti itu dapat menyebabkan komputer melakukan kesalahan tupai untuk seekor musang kelabu dan periuk kopi untuk burung beo.

Bagaimana ini boleh berlaku? Fikirkan bagaimana anak anda belajar mengenali nombor. Melihat simbol satu per satu, kanak-kanak mula melihat beberapa ciri umum: ada yang lebih tinggi dan langsing, enam dan sembilan mengandungi satu gelung besar, dan lapan mengandungi dua, dan seterusnya. Sebaik sahaja mereka melihat contoh yang cukup, mereka dapat dengan cepat mengenali nombor baru sebagai angka empat, delapan, atau kembar tiga - walaupun jika, berkat fon atau tulisan tangan, mereka tidak kelihatan sama seperti empat, delapan, atau bertiga yang pernah mereka miliki. dilihat sebelum ini.

Algoritma pembelajaran mesin belajar membaca dunia melalui proses yang agak serupa. Para saintis memberi makan komputer beratus-ratus atau ribuan (biasanya berlabel) contoh apa yang ingin mereka temukan di komputer. Apabila mesin menyaring data - ini adalah nombor, ini bukan, ini adalah nombor, ini tidak - ia mula melihat ciri-ciri yang membawa kepada tindak balas. Tidak lama lagi dia mungkin melihat gambar itu dan berkata, "Itu lima!" dengan ketepatan tinggi.

Video promosi:

Oleh itu, kedua-dua anak manusia dan komputer dapat belajar mengenali sejumlah besar objek, dari angka hingga kucing, dari kapal hingga wajah manusia individu.

Tetapi, tidak seperti anak manusia, komputer tidak memperhatikan perincian tahap tinggi - seperti telinga kucing yang berbulu atau bentuk sudut keempatnya yang khas. Dia tidak melihat keseluruhan gambar.

Sebaliknya, ia melihat piksel individu dalam gambar - dan cara terpantas untuk memisahkan objek. Sekiranya sebahagian besar unit mempunyai piksel hitam pada titik tertentu dan beberapa piksel putih pada titik lain, mesin akan cepat belajar menentukannya dengan beberapa piksel.

Sekarang kembali ke tanda berhenti. Dengan betul membetulkan piksel dalam gambar - pakar menyebut gangguan ini sebagai "gangguan" - anda boleh menipu komputer untuk berfikir bahawa, sebenarnya, tidak ada tanda berhenti.

Image
Image

Kajian serupa dari Makmal Kecerdasan Buatan Evolusi di Universiti Wyoming dan Universiti Cornell telah menghasilkan beberapa ilusi optik untuk kecerdasan buatan. Imej psychedelic dari corak dan warna abstrak ini tidak seperti manusia, tetapi cepat dikenali oleh komputer sebagai ular atau senapang. Ini menunjukkan bagaimana AI dapat melihat sesuatu dan tidak melihat objek, atau sebaliknya melihat sesuatu yang lain.

Kelemahan ini biasa berlaku pada semua jenis algoritma pembelajaran mesin. "Seseorang akan mengharapkan setiap algoritma mempunyai lubang pada baju besi," kata Yevgeny Vorobeychik, penolong profesor sains komputer dan pengkomputeran di Universiti Vanderbilt. "Kami hidup dalam dunia multidimensi yang sangat kompleks, dan algoritma, secara semula jadi, hanya mempengaruhi sebahagian kecil daripadanya."

Sparrow "sangat yakin" bahawa jika kelemahan ini ada, seseorang akan mengetahui cara memanfaatkannya. Mungkin seseorang sudah melakukan ini.

Pertimbangkan penapis spam, program automatik yang menyaring e-mel yang canggung. Spammer boleh cuba mengatasi halangan ini dengan mengubah ejaan kata-kata (bukannya Viagra - vi @ gra) atau menambahkan senarai "kata-kata baik" yang biasanya terdapat dalam huruf biasa: seperti "aha", "saya", "senang". Sementara itu, spammer boleh mencuba membuang perkataan yang sering muncul dalam spam, seperti "mudah alih" atau "menang".

Di mana satu hari penipu boleh sampai? Sebuah kereta memandu sendiri yang ditipu oleh pelekat tanda berhenti adalah senario klasik yang difikirkan oleh para pakar di lapangan. Data tambahan dapat membantu pornografi melalui penapis yang selamat. Orang lain mungkin berusaha menambah jumlah cek. Penggodam dapat mengubah kod perisian jahat untuk mengelakkan penguatkuasaan undang-undang.

Penyerang dapat mengetahui cara membuat data yang hilang jika mereka mendapat salinan algoritma pembelajaran mesin yang ingin mereka tipu. Tetapi tidak perlu melalui algoritma. Seseorang boleh memecahkannya dengan kekerasan dengan melemparkan versi e-mel atau gambar yang sedikit berbeza sehingga ia berlalu. Dari masa ke masa, ia bahkan boleh digunakan untuk model yang sama sekali baru yang mengetahui apa yang dicari oleh lelaki baik dan data apa yang akan dihasilkan untuk menipu mereka.

"Orang-orang telah memanipulasi sistem pembelajaran mesin sejak pertama kali diperkenalkan," kata Patrick McDaniel, profesor sains komputer dan kejuruteraan di University of Pennsylvania. "Sekiranya orang menggunakan kaedah ini, kita mungkin tidak tahu mengenainya."

Kaedah-kaedah ini dapat digunakan bukan hanya oleh penipu - orang dapat menyembunyikan diri dari sinar-sinar teknologi moden.

"Sekiranya anda semacam pembangkang politik di bawah rejim yang menindas dan anda ingin mengadakan acara tanpa pengetahuan perkhidmatan perisikan, anda mungkin perlu mengelakkan kaedah pemerhatian automatik berdasarkan pembelajaran mesin," kata Lode.

Dalam satu projek yang diterbitkan pada bulan Oktober, para penyelidik di Universiti Carnegie Mellon mencipta sepasang kacamata yang secara halus dapat menyesatkan sistem pengecaman wajah, menyebabkan komputer menyalahi pelakon Reese Witherspoon untuk Russell Crowe. Kedengarannya tidak masuk akal, tetapi teknologi seperti itu mungkin berguna bagi sesiapa yang terdesak untuk mengelakkan penapisan oleh mereka yang berkuasa.

Apa yang perlu dilakukan dengan semua ini? "Satu-satunya cara untuk menghindarinya sepenuhnya adalah dengan membuat model sempurna yang akan selalu betul," kata Lode. Sekalipun kita dapat menciptakan kecerdasan buatan yang melampaui manusia dengan segala cara, dunia masih dapat menyelinap babi di tempat yang tidak dijangka.

Algoritma pembelajaran mesin biasanya dinilai berdasarkan ketepatannya. Program yang mengenali kerusi 99% dari waktu akan jelas lebih baik daripada yang mengenali 6 kerusi dari 10. Tetapi beberapa pakar mencadangkan cara lain untuk menilai kemampuan algoritma untuk mengatasi serangan: semakin sukar semakin baik.

Penyelesaian lain mungkin bagi para pakar untuk dapat mengatur langkah untuk program. Buat contoh serangan anda sendiri di makmal berdasarkan kemampuan penjenayah pada pendapat anda, dan kemudian tunjukkan kepada algoritma pembelajaran mesin. Ini dapat menjadikannya lebih tahan lama dari masa ke masa - dengan syarat, tentu saja, serangan ujian adalah jenis yang akan diuji di dunia nyata.

"Sistem pembelajaran mesin adalah alat untuk berfikir. Kita harus bersikap wajar dan rasional mengenai apa yang kita berikan kepada mereka dan apa yang mereka sampaikan kepada kita,”kata McDaniel. "Kita tidak seharusnya memperlakukan mereka sebagai kebenaran kebenaran yang sempurna."

ILYA KHEL

Disyorkan: