Kecerdasan Buatan Telah Diajar Untuk Menipu Kecerdasan Buatan Lain - Pandangan Alternatif

Kecerdasan Buatan Telah Diajar Untuk Menipu Kecerdasan Buatan Lain - Pandangan Alternatif
Kecerdasan Buatan Telah Diajar Untuk Menipu Kecerdasan Buatan Lain - Pandangan Alternatif

Video: Kecerdasan Buatan Telah Diajar Untuk Menipu Kecerdasan Buatan Lain - Pandangan Alternatif

Video: Kecerdasan Buatan Telah Diajar Untuk Menipu Kecerdasan Buatan Lain - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, April
Anonim

Penyelidik di Massachusetts Institute of Technology (MIT) telah mengembangkan teknik untuk memperdaya teks-menganalisis kecerdasan buatan (AI), Wired melaporkan pada 23 Februari.

Para penyelidik telah memperhatikan bahawa sedikit perubahan frasa, yang dapat difahami oleh seseorang, dapat menipu AI. Mereka mengembangkan algoritma untuk menggantikan perkataan dengan sinonim dan menipu teks pengenalan AI. Nuansa adalah bahawa algoritma menyerang itu sendiri menggunakan AI untuk memilih sinonim.

Sebagai contoh, frasa "Watak-watak, yang dilemparkan dalam situasi yang tidak dapat dibuat, benar-benar terpisah dari kenyataan." ("Karakter yang dimainkan dalam situasi yang sangat dibuat-buat sama sekali tidak bersentuhan dengan kenyataan"), yang merupakan tinjauan negatif terhadap filem ini.

Sekiranya kita mengganti kata-kata di dalamnya dengan sinonim, maka frasa "Watak-watak, yang dilemparkan dalam keadaan yang sangat direkayasa, sepenuhnya terlepas dari kenyataan" ("Karakter yang dimainkan dalam keadaan yang sangat mahir benar-benar terpisah dari kenyataan"), maka AI menganggap tinjauan itu positif.

Jenis sistem AI yang lain juga dapat ditipu; dalam kes ini, kerentanan terutama ditunjukkan dalam sistem pengenalan imej dan pertuturan.

Para penyelidik menyatakan bahawa penyimpangan data yang halus dapat menipu AI dan digunakan untuk menyerang sistem, yang menjadi penting ketika AI menyebar di bidang kewangan, penjagaan kesihatan dan lain-lain.

Disyorkan: