Kecerdasan Buatan Sebagai Pengganas: Ancaman Keselamatan Baru - Pandangan Alternatif

Isi kandungan:

Kecerdasan Buatan Sebagai Pengganas: Ancaman Keselamatan Baru - Pandangan Alternatif
Kecerdasan Buatan Sebagai Pengganas: Ancaman Keselamatan Baru - Pandangan Alternatif

Video: Kecerdasan Buatan Sebagai Pengganas: Ancaman Keselamatan Baru - Pandangan Alternatif

Video: Kecerdasan Buatan Sebagai Pengganas: Ancaman Keselamatan Baru - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Oktober
Anonim

Para saintis Rusia telah meneliti dan mengklasifikasikan ancaman penggunaan kecerdasan buatan (AI) dari sudut maklumat antarabangsa dan keselamatan psikologi. Perhatian khusus diberikan untuk mengatasi penggunaan jahat oleh pengganas. Hasil penyelidikan diterbitkan dalam jurnal Russia in Global Affairs.

Bahaya Penggunaan Berbahaya AI

Potensi bahaya kecerdasan buatan bagi umat manusia telah berulang kali menjadi topik karya seni dan hari ini adalah salah satu isu perkembangan saintifik dan teknologi yang paling banyak dibincangkan. Walaupun Strong AI, mampu berfikir sistemik secara bebas, dan mungkin mempunyai kesedaran dan kehendak diri, masih jauh dari diciptakan, pelbagai versi lanjutan dari Lemah AI melakukan tugas khusus yang sepertinya fiksyen sains 10 tahun yang lalu. Penggunaan AI untuk tujuan yang baik (misalnya, dalam perubatan) sudah membawa manfaat yang tidak diragukan lagi. Namun, di tangan pengganas dan organisasi jenayah lain, teknologi AI yang lebih murah dan lebih maju secara beransur-ansur dapat menjadi senjata yang lebih dahsyat daripada nuklear.

Penyelidik dari pelbagai negara secara aktif mengkaji ancaman yang ditimbulkan oleh penggunaan AI secara berbahaya kepada masyarakat secara keseluruhan dan kepada bidang aktiviti manusia tertentu, sama ada politik, ekonomi, hal ehwal ketenteraan, dan lain-lain. Namun, ancaman secara langsung terhadap maklumat antarabangsa dan keselamatan psikologi belum dikenal pasti sebagai ancaman bebas. skop pertimbangan. Sementara itu, penggunaan AI untuk mengacaukan hubungan antarabangsa melalui maklumat berteknologi tinggi yang disasarkan dan kesan psikologi pada orang adalah bahaya besar yang jelas.

Penulis kajian mencadangkan klasifikasi ancaman terhadap penggunaan kecerdasan buatan yang berniat jahat berdasarkan sejumlah kriteria, termasuk cakupan wilayah, kecepatan dan bentuk penyebaran. Mengaplikasikan klasifikasi akan membantu anda mencari jalan untuk mengatasi dan mengembangkan alat tindak balas.

Pengurangan biaya teknologi AI di masa depan dapat menimbulkan ancaman serangan pengganas yang baru. Ada kemungkinan bahawa chatbot dapat digunakan untuk membina mesej mengenai kejadian palsu dan meyakinkan bakal mangsa untuk mengunjunginya. Untuk mengatasi, disarankan untuk membiasakan masyarakat dengan ancaman baru, memerintahkan warga untuk berhati-hati dengan hubungan jauh dengan orang yang mereka tidak kenal secara peribadi. Jalan keluarnya adalah pengesahan acara awam, yang mengesahkan realiti maklumat yang disiarkan mengenai mereka. Sudah tentu, dalam hal ini, tugas pakar teknikal adalah melindungi pangkalan data mengenai peristiwa dan mekanisme pensijilannya,”kata Daria Bazarkina, profesor Jabatan Keselamatan Antarabangsa dan Dasar Luar Negeri Rusia, RANEPA, kepada RIA Novosti.

Tahap teknologi dan keupayaan AI yang moden membolehkan kita mengenal pasti sejumlah ancaman asasnya terhadap maklumat dan keselamatan psikologi seseorang.

Video promosi:

Menggunakan teknologi "orang palsu" dan "deepfake" untuk provokasi antarabangsa

Syarikat teknologi Amerika NVIDIA baru-baru ini berkongsi hasil rangkaian kompetitif generatif yang dilatih untuk menghasilkan imej orang sendiri ("orang palsu"). Rangkaian neural dalam beberapa saat menghasilkan gambar resolusi tinggi wajah orang yang tidak ada, dapat menambahkan ciri budaya, etnik, emosi, mood dan berdasarkan koleksi gambar wajah yang tidak berkesudahan. Pada masa akan datang, kemungkinan pengalaman ini akan diulang oleh pembangun lain. Pada masa yang sama, gambar seperti itu dapat digunakan oleh penjenayah untuk segala macam provokasi, yang hanya dapat dikenali oleh masyarakat yang mempunyai pengetahuan politeknik sistemik.

“Teknologi Deepfake dapat mensintesis gambar dan suara seseorang. Ini sudah mulai digunakan untuk membuat gambar video pemimpin dunia, termasuk Presiden AS Donald Trump dan Presiden Rusia Vladimir Putin. Video deepfake mampu memanipulasi tingkah laku kumpulan sasaran yang besar dan dapat digunakan dalam maklumat dan konfrontasi psikologi (IPP) untuk mencetuskan panik atau perang kewangan,”kata Evgeny Pashentsev, penyelidik terkemuka di Institut Isu Antarabangsa Kontemporari Akademi Diplomatik Kementerian Luar Negeri Rusia, profesor di Universiti Negeri Moscow.

Analisis sentimen adalah kelas kaedah analisis kandungan dalam linguistik komputasi yang dirancang untuk mengesan automatik perbendaharaan kata berwarna dan penilaian emosi penulis dalam teks. Analisis sentimen disediakan oleh pelbagai sumber, seperti blog, artikel, forum, tinjauan pendapat, dan lain-lain. Ini boleh menjadi alat yang sangat berkesan dalam API, yang, misalnya, disahkan oleh minat yang tinggi terhadap perkembangan seperti ini yang kini ada di pihak kepemimpinan Komando Operasi Khas AS. (Perintah Operasi Khas Amerika Syarikat (SOCOM).

"Senjata Ramalan": Meramalkan Tingkah Laku Manusia Berdasarkan Data Media Sosial

Pada tahun 2012, Badan Penyelidikan Perisikan Lanjutan Amerika Syarikat (IARPA) melancarkan program Pengenalan Acara Berdasarkan Model Awal Menggunakan Surrogates (EMBERS). Tujuan pembangunan disebut peramalan kerusuhan sipil berdasarkan penggunaan AI dengan penentuan tarikh, tempat, kumpulan penunjuk perasaan penduduk.

Sistem ini memproses data dari media dan rangkaian sosial, serta sumber yang lebih berkualiti, misalnya, petunjuk ekonomi. Jatuhnya program seperti itu ke tangan pengganas, tentu saja, juga sangat berbahaya. Dalam kes ini, serangan pengganas besar semasa demonstrasi sosial berskala besar mungkin menjadi ancaman. Kriteria tambahan untuk memilih sasaran serangan pengganas adalah tahap ketegangan sosial dan psikologi di kawasan tertentu.

Menurut penulis kajian, sebagai langkah pencegahan, analitik ramalan dapat digunakan oleh pihak berkuasa negara dan supranasional untuk mencegah ketegangan sosial (pengambilan langkah sosial, ekonomi dan politik yang tepat pada masanya bertujuan untuk mencapai kestabilan dalam jangka panjang).

Di samping itu, kumpulan pengganas dapat menyebabkan kerosakan reputasi melalui penggunaan bot semasa kempen politik, dan juga untuk menarik penyokong baru atau mengatur pembunuhan ahli politik.

Menangkap drone dan infrastruktur robotik

Sistem pengangkutan pembelajaran kendiri dengan kawalan AI boleh menjadi sasaran yang tepat untuk serangan pengganas berteknologi tinggi. Penyitaan pengganas sistem kawalan pengangkutan di sebuah bandar besar boleh mengakibatkan banyak korban jiwa, menyebabkan panik dan mewujudkan iklim psikologi yang akan memudahkan kegiatan jenayah lain.

Sistem komersil dapat digunakan untuk menyebarkan kenderaan udara tanpa pemandu atau kenderaan autonomi untuk menghantar bahan letupan dan membuat kemalangan. Serangkaian bencana besar dapat menimbulkan kekacauan di media antarabangsa dan menyebabkan kerosakan yang signifikan terhadap keselamatan maklumat dan psikologi.

Penyelidik dari Akademi Presiden Rusia Ekonomi Nasional dan Pentadbiran Awam dan Akademi Diplomatik Kementerian Luar Negeri Persekutuan Rusia membuat kajian mereka berdasarkan analisis sistematik mengenai peranan AI dalam bidang keselamatan, kaedah analisis senario, analogi sejarah dan analisis kes. Bersama rakan sekerja dari Universiti Uppsala (Sweden), Greg Simons, penulis kajian ini menjadi penyunting buku yang akan datang "Terrorism and Advanced Technologies in Information-Psychological Confrontation: New Risks, New Opportunities to Counter the Terrorist Threat" dengan penyertaan penyelidik dari 11 negara.

Atas inisiatif penyelidik Rusia, masalah peranan AI dalam konteks ancaman terhadap maklumat antarabangsa dan keselamatan psikologi sedang dibincangkan secara aktif dan akan dibincangkan di persidangan antarabangsa dan seminar penyelidikan antarabangsa autonomi. Antaranya ialah persidangan yang diadakan di bawah naungan Suruhanjaya Persekutuan Rusia untuk UNESCO dan sejumlah struktur Rusia dan antarabangsa yang lain di Khanty-Mansiysk pada 9-12 Jun. Gabenor Okrug Otonomi Khanty-Mansiysk Natalya Vladimirovna Komarova mengambil bahagian aktif dalam sesi bahagian mengenai masalah penggunaan AI yang berniat jahat, yang dibentuk dengan sokongan Rangkaian Pakar Eropah-Rusia untuk Pengurusan Komunikasi (ERESKM). Pada masa akan datang, ini adalah Forum Ibero-Amerika IV di St. Petersburg pada 1 - 3 Oktober 2019,Persidangan Eropah mengenai Kesan Kecerdasan Buatan dan Robotik 31 Oktober - 1 November 2019. Penulis kajian telah menyampaikan laporan ilmiah di Argentina, Uruguay, Brazil, Afrika Selatan dan Itali.

Menurut pakar dari RANEPA dan Akademi Diplomatik, sangat penting dalam skala Rusia untuk mewujudkan pembentukan program jangka panjang, kerana masalah AI dan keselamatan antarabangsa maklumat dan psikologi adalah masalah untuk masa terdekat.

Disyorkan: