Tentera AS Telah Merumuskan Prinsip Etika Untuk Penggunaan Kecerdasan Buatan - Pandangan Alternatif

Tentera AS Telah Merumuskan Prinsip Etika Untuk Penggunaan Kecerdasan Buatan - Pandangan Alternatif
Tentera AS Telah Merumuskan Prinsip Etika Untuk Penggunaan Kecerdasan Buatan - Pandangan Alternatif

Video: Tentera AS Telah Merumuskan Prinsip Etika Untuk Penggunaan Kecerdasan Buatan - Pandangan Alternatif

Video: Tentera AS Telah Merumuskan Prinsip Etika Untuk Penggunaan Kecerdasan Buatan - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, Mungkin
Anonim

Jabatan Pertahanan AS telah merumuskan dan mengadopsi prinsip etika, yang dipandu oleh sistem perisikan buatan tentera yang akan dikembangkan dan diterapkan di negara itu. Menurut Pentagon, dalam merumuskan prinsip, militer dipandu oleh Perlembagaan AS, bab kesepuluh dari Kod AS (menggambarkan peranan angkatan bersenjata), undang-undang dan adat istiadat perang, serta perjanjian antarabangsa dan "norma dan nilai yang mapan."

Perkembangan aktif dalam bidang penciptaan sistem kecerdasan buatan menyebabkan fakta bahawa sistem sedemikian secara beransur-ansur mula diperkenalkan ke dalam senjata dan peralatan ketenteraan. Khususnya, sistem sedang dikembangkan yang memungkinkan drone untuk secara otomatis mengesan dan memprioritaskan sasaran, atau drone bertindak sebagai hamba untuk pesawat berawak. Sistem kecerdasan buatan yang dapat mendekripsi penghantaran radio juga sedang dikembangkan. Kepintaran buatan akan menjadi semakin penting dalam perkembangan ketenteraan masa depan.

Pengenalan aktif sistem kecerdasan buatan ke dalam senjata dan peralatan ketenteraan menimbulkan banyak persoalan etika. Secara khusus, belum jelas seberapa sahnya penggunaan sistem senjata autonomi dalam perang dan jenis ancaman apa yang mereka buat kepada orang awam yang terperangkap di zon pertempuran.

Secara keseluruhan, Pentagon telah merumuskan lima prinsip etika untuk penggunaan sistem kecerdasan buatan untuk tujuan ketenteraan:

  • Tanggungjawab. Anggota tentera mesti menilai prestasi kecerdasan buatan dengan berhati-hati, tetap bertanggungjawab sepenuhnya terhadap reka bentuk, penggunaan dan penggunaan sistem kecerdasan buatan.
  • Ketidakpatuhan. Jabatan Pertahanan AS mesti mengambil langkah untuk meminimumkan penyimpangan yang tidak diingini dalam kemampuan sistem kecerdasan buatan.
  • Kebolehkesanan. Sistem kecerdasan buatan tentera dan kemampuannya mesti dirancang dan digunakan sedemikian rupa sehingga personel mempunyai tahap pemahaman yang mencukupi mengenai teknologi, proses pembangunan dan aplikasi. Metodologi, data dan dokumentasi yang berkaitan dengan sistem kecerdasan buatan yang digunakan harus tersedia untuk anggota tentera.
  • Kebolehpercayaan. Keupayaan sistem kecerdasan buatan ketenteraan mesti jelas dan dirumuskan dengan jelas. Keselamatan dan keberkesanan keupayaan tersebut mesti disahkan dengan ujian dan disahkan sepanjang hayat perkhidmatan mereka.
  • Subordinasi. Sistem AI ketenteraan mesti dapat melaksanakan misi yang diinginkan sepenuhnya, tetapi tentera mesti dapat mengesan dan mencegah kesan AI yang tidak diingini. Tentera juga harus dapat melumpuhkan atau mematikan sistem kecerdasan buatan yang telah dilihat tidak normal.

Pentagon juga telah menetapkan Pusat Bersama untuk Kecerdasan Buatan sebagai bertanggungjawab untuk melaksanakan prinsip-prinsip penggunaan sistem kecerdasan buatan. Secara keseluruhan, Jabatan Pertahanan AS menghabiskan 15 bulan berunding dengan pemaju dan organisasi saintifik, serta merumuskan prinsip-prinsip untuk menggunakan sistem kecerdasan buatan. Pada waktu yang sama, beberapa pakar menyatakan ketidakjelasan formulasi yang diadopsi dan kurangnya peraturan yang jelas tentang apa yang harus dan tidak harus dilakukan oleh tentera ketika membangun dan menggunakan sistem kecerdasan buatan.

Vasily Sychev

Disyorkan: