Bagaimana Rangkaian Saraf Diajar Untuk Memalsukan Gambar Berita - Pandangan Alternatif

Isi kandungan:

Bagaimana Rangkaian Saraf Diajar Untuk Memalsukan Gambar Berita - Pandangan Alternatif
Bagaimana Rangkaian Saraf Diajar Untuk Memalsukan Gambar Berita - Pandangan Alternatif

Video: Bagaimana Rangkaian Saraf Diajar Untuk Memalsukan Gambar Berita - Pandangan Alternatif

Video: Bagaimana Rangkaian Saraf Diajar Untuk Memalsukan Gambar Berita - Pandangan Alternatif
Video: SISTEM SARAF 2024, April
Anonim

Untuk membuat palsu, sistem kecerdasan buatan dan teknologi untuk menghasilkan video dan audio palsu digunakan.

Untuk membuat gambar berita "individu" bagi mana-mana daripada kita dan memalsukan laporan media yang dipilih di dalamnya, hari ini usaha satu programmer sudah cukup. Pakar kecerdasan buatan dan keselamatan siber memberitahu Izvestia mengenai perkara ini. Baru-baru ini, mereka mengira bahawa ini memerlukan kerja pelbagai pasukan. Percepatan semacam itu dimungkinkan dengan pengembangan teknologi untuk serangan pada jaringan saraf dan penghasilan palsu dan video palsu menggunakan program untuk membuat "palsu palsu". Akhbar Izvestia baru-baru ini mengalami serangan serupa, ketika tiga portal berita Libya sekaligus menerbitkan sebuah pesan yang diduga muncul dalam salah satu isu. Menurut pakar, dalam masa 3-5 tahun, seseorang dapat menjangkakan pencerobohan manipulator robot, yang secara automatik akan dapat membuat banyak palsu.

Dunia baru

Terdapat lebih banyak projek yang menyesuaikan gambaran maklumat dengan persepsi pengguna tertentu. Salah satu contoh karya mereka adalah aksi terbaru tiga portal Libya, yang menerbitkan berita yang didakwa dicetak dalam isu Izvestia pada 20 November. Para pencipta palsu mengubah halaman depan surat khabar, menyiarkannya mengenai perundingan antara Marsekal Lapangan Khalifa Haftar dan Perdana Menteri Kerajaan Perjanjian Nasional (PNS) Fayez Sarraj. Yang palsu, dalam fon Izvestia, disertakan dengan gambar kedua pemimpin yang diambil pada Mei 2017. Label dengan logo penerbitan dipotong dari terbitan sebenar yang disiarkan pada 20 November, dan semua teks lain di halaman dari terbitan 23 Oktober.

Dari sudut pandangan pakar, pada masa akan datang pemalsuan seperti ini dapat dilakukan secara automatik.

Image
Image

"Teknologi kecerdasan buatan kini terbuka sepenuhnya, dan peranti untuk menerima dan memproses data menjadi miniatur dan semakin murah," kata Yuri Vilsiter, Doktor Sains Fizikal dan Matematik, Profesor Akademi Sains Rusia, ketua jabatan "GosNIIAS" FSUE, kepada Izvestia. - Oleh itu, sangat mungkin dalam masa terdekat, bukan juga syarikat negeri dan syarikat besar, tetapi individu persendirian akan dapat mengupas dan mengintip kita, serta memanipulasi kenyataan. Pada tahun-tahun mendatang, adalah mungkin, dengan menganalisis pilihan pengguna, untuk mempengaruhinya melalui umpan berita dan palsu yang sangat bijak.

Video promosi:

Menurut Yuri Vilsiter, teknologi yang dapat digunakan untuk campur tangan seperti itu dalam lingkungan mental sudah ada. Secara teori, pencerobohan bot manipulator dapat dijangkakan dalam beberapa tahun, katanya. Momen yang membatasi di sini mungkin adalah keperluan untuk mengumpulkan pangkalan data besar contoh tindak balas orang sebenar terhadap rangsangan buatan dengan mengesan akibat jangka panjang. Penjejakan sedemikian mungkin memerlukan penelitian selama beberapa tahun sebelum serangan yang disasarkan secara konsisten.

Serangan penglihatan

Alexei Parfentiev, ketua bahagian analisis di SearchInform, bersetuju dengan Yuri Vilsiter. Menurutnya, para pakar sudah meramalkan serangan pada jaringan saraf, walaupun sekarang tidak ada contoh seperti itu.

- Penyelidik dari Gartner percaya bahawa pada tahun 2022, 30% dari semua serangan siber akan ditujukan untuk merosakkan data di mana rangkaian saraf melatih dan mencuri model pembelajaran mesin siap pakai. Sebagai contoh, misalnya, kenderaan tanpa pemandu tiba-tiba boleh mula menyalah anggap pejalan kaki untuk objek lain. Kami tidak akan membincangkan risiko kewangan atau reputasi, tetapi mengenai kehidupan dan kesihatan orang biasa, pakar itu percaya.

Serangan pada sistem penglihatan komputer sedang dilakukan sebagai bagian dari penyelidikan sekarang. Tujuan serangan tersebut adalah untuk memaksa rangkaian saraf untuk mengesan dalam gambar apa yang tidak ada di sana. Atau, sebaliknya, untuk tidak melihat apa yang dirancang.

Image
Image

"Salah satu topik yang sedang berkembang secara aktif dalam bidang latihan jaringan saraf adalah apa yang disebut serangan musuh (" serangan musuh "- Izvestia)," jelas Vladislav Tushkanov, seorang penganalisis web di Kaspersky Lab. - Dalam kebanyakan kes, mereka ditujukan untuk sistem penglihatan komputer. Untuk melakukan serangan seperti itu, dalam kebanyakan kes, anda harus memiliki akses penuh ke jaringan saraf (yang disebut serangan kotak putih) atau hasil kerjanya (serangan kotak hitam). Tidak ada kaedah yang dapat menipu sistem penglihatan komputer mana pun dalam 100% kes. Di samping itu, alat telah dibuat yang membolehkan anda menguji rangkaian saraf untuk menentang serangan musuh dan meningkatkan daya tahannya.

Semasa serangan seperti itu, penyerang cuba mengubah imej yang dikenali agar rangkaian saraf tidak berfungsi. Sering kali, kebisingan ditumpangkan pada foto, mirip dengan kebisingan yang berlaku ketika mengambil gambar di ruangan yang kurang terang. Seseorang biasanya tidak menyedari gangguan seperti itu dengan baik, tetapi rangkaian saraf mula tidak berfungsi. Tetapi untuk melakukan serangan seperti itu, penyerang memerlukan akses ke algoritma.

Menurut Stanislav Ashmanov, Ketua Pengarah Neuroset Ashmanov, pada masa ini tidak ada kaedah untuk menangani masalah ini. Sebagai tambahan, teknologi ini tersedia untuk semua orang: rata-rata pengaturcara dapat menggunakannya dengan memuat turun perisian sumber terbuka yang diperlukan dari perkhidmatan Github.

Image
Image

- Serangan pada jaringan saraf adalah teknik dan algoritma untuk menipu jaringan saraf, yang menjadikannya menghasilkan hasil yang salah, dan sebenarnya, mematahkannya seperti kunci pintu, - Ashmanov percaya. - Sebagai contoh, sekarang cukup mudah untuk membuat sistem pengecam wajah berfikir bahawa bukan anda, tetapi Arnold Schwarzenegger di depannya - ini dilakukan dengan mencampurkan bahan tambahan yang tidak dapat dilihat oleh mata manusia ke dalam data yang memasuki rangkaian saraf. Serangan yang sama juga berlaku untuk sistem pengecaman dan analisis pertuturan.

Pakar yakin bahawa ia hanya akan bertambah buruk - teknologi ini sudah banyak digunakan, penipu sudah menggunakannya, dan tidak ada cara perlindungan terhadapnya. Kerana tidak ada perlindungan terhadap penciptaan pemalsuan video dan audio secara automatik.

Palsu yang mendalam

Teknologi Deepfake berdasarkan Pembelajaran Dalam (teknologi pembelajaran mendalam rangkaian neural. - Izvestia) sudah menimbulkan ancaman nyata. Palsu video atau audio dibuat dengan mengedit atau menutup wajah orang-orang terkenal yang kononnya mengucapkan teks yang diperlukan dan memainkan peranan yang diperlukan dalam plot.

"Deepfake membolehkan anda mengganti pergerakan bibir dan ucapan manusia dengan video, yang menimbulkan perasaan realisme terhadap apa yang berlaku," kata Andrey Busargin, pengarah jabatan perlindungan jenama dan harta intelektual inovatif di Group-IB. - Selebriti palsu "menawarkan" pengguna di rangkaian sosial untuk mengambil bahagian dalam menarik hadiah berharga (telefon pintar, kereta, sejumlah wang), dll. Pautan dari video ini sering menyebabkan laman web penipuan dan pancingan data di mana pengguna diminta memasukkan maklumat peribadi, termasuk butiran kad bank. Skema sedemikian menimbulkan ancaman bagi pengguna biasa dan tokoh masyarakat yang disebut dalam iklan. Kerana shenanigans seperti ini, gambar selebriti dikaitkan dengan penipuan atau barang yang diiklankan.dan di sinilah kita mengalami kerosakan jenama peribadi,”katanya.

Image
Image

Ancaman lain adalah berkaitan dengan penggunaan "suara palsu" untuk penipuan telefon. Sebagai contoh, di Jerman, penjenayah siber menggunakan deepfake suara untuk membuat ketua anak syarikat UK segera memindahkan € 220,000 ke akaun pembekal Hungary dalam perbualan telefon, yang muncul sebagai pengurus syarikat. Ketua firma Britain itu mengesyaki tipu muslihat ketika "bosnya" meminta pesanan wang kedua, tetapi panggilan itu datang dari nombor Austria. Pada masa ini, tahap pertama telah dipindahkan ke akaun di Hungary, dari mana wang itu dikeluarkan ke Mexico.

Ternyata teknologi semasa membolehkan membuat gambar berita individu yang dipenuhi dengan berita palsu. Lebih-lebih lagi, tidak mustahil untuk membezakan palsu dari video dan audio sebenar hanya dengan perkakasan. Menurut para pakar, langkah-langkah yang melarang pengembangan rangkaian saraf tidak mungkin berkesan. Oleh itu, tidak lama lagi kita akan hidup di dunia di mana kita perlu sentiasa memeriksa semula semuanya.

"Kita perlu bersiap untuk ini, dan kita harus menerimanya," tegas Yuri Vilsiter. - Kemanusiaan bukanlah kali pertama berlalu dari satu kenyataan ke yang lain. Dunia, cara hidup dan nilai kita sangat berbeza dari dunia di mana nenek moyang kita hidup 60.000 tahun yang lalu, 5.000 tahun yang lalu, 2.000 tahun yang lalu, dan bahkan 200-100 tahun yang lalu. Dalam masa terdekat, seseorang akan kehilangan privasi dan oleh itu dipaksa untuk tidak menyembunyikan apa-apa dan bertindak jujur. Pada masa yang sama, tidak ada apa-apa dalam realiti sekitarnya dan keperibadian seseorang yang dapat diambil berdasarkan iman, semuanya harus dipersoalkan dan selalu diperiksa. Tetapi adakah realiti masa depan ini akan mengerikan? Tidak. Ia akan berbeza sama sekali.

Anna Urmantseva

Disyorkan: