Mesin Moral: Jurutera Menganugerahkan Kecerdasan Buatan Dengan Moral Dan Etika - Pandangan Alternatif

Isi kandungan:

Mesin Moral: Jurutera Menganugerahkan Kecerdasan Buatan Dengan Moral Dan Etika - Pandangan Alternatif
Mesin Moral: Jurutera Menganugerahkan Kecerdasan Buatan Dengan Moral Dan Etika - Pandangan Alternatif

Video: Mesin Moral: Jurutera Menganugerahkan Kecerdasan Buatan Dengan Moral Dan Etika - Pandangan Alternatif

Video: Mesin Moral: Jurutera Menganugerahkan Kecerdasan Buatan Dengan Moral Dan Etika - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Semakin kuat AI memasuki kehidupan seharian kita, semakin kerap menghadapi dilema moral dan etika yang kompleks, yang kadang-kadang tidak begitu mudah untuk diselesaikan oleh seseorang yang hidup. Para saintis di MIT berusaha menyelesaikan masalah ini dan mengurniakan mesin dengan kemampuan berfikir dari segi moral, berdasarkan pendapat kebanyakan orang yang hidup.

Beberapa pakar percaya bahawa cara terbaik untuk melatih kecerdasan buatan untuk menangani situasi yang sukar secara moral adalah dengan menggunakan "pengalaman orang ramai". Yang lain berpendapat bahawa pendekatan ini bukan tanpa berat sebelah, dan algoritma yang berbeza dapat membuat kesimpulan yang berbeza dari set data yang sama. Bagaimana mesin berada dalam situasi seperti ini, yang jelas harus membuat keputusan moral dan etika yang sukar ketika bekerja dengan orang yang sebenarnya?

Akal dan moral

Ketika sistem kecerdasan buatan (AI) berkembang, para pakar semakin berusaha untuk menyelesaikan masalah bagaimana cara terbaik untuk memberikan sistem etika dan moral untuk melakukan tindakan tertentu. Idea yang paling popular adalah untuk AI membuat kesimpulan dengan mengkaji keputusan manusia. Untuk menguji andaian ini, penyelidik di Massachusetts Institute of Technology mencipta Mesin Moral. Pengunjung laman web diminta membuat pilihan mengenai apa yang harus dilakukan kenderaan autonomi ketika berhadapan dengan pilihan yang agak sukar. Sebagai contoh, ini adalah dilema biasa mengenai kemungkinan berlakunya kemalangan, yang hanya mempunyai dua pilihan untuk perkembangan peristiwa: sebuah kereta boleh menimpa tiga orang dewasa untuk menyelamatkan nyawa dua kanak-kanak, atau ia boleh berlaku sebaliknya. Pilihan mana yang harus anda pilih? Dan adakah mungkin, sebagai contoh,mengorbankan nyawa orang tua untuk menyelamatkan wanita hamil?

Hasilnya, algoritma mengumpulkan pangkalan data besar berdasarkan hasil ujian, dan Ariel Procaccia dari Jabatan Sains Komputer di Carnegie Mellon University memutuskan untuk menggunakannya untuk meningkatkan kecerdasan mesin. Dalam kajian baru, dia dan salah seorang pencipta projek tersebut, Iyad Rahwan, memuatkan pangkalan lengkap projek Mesin Moral ke dalam AI dan meminta sistem untuk meramalkan bagaimana kereta autopilot akan bertindak balas terhadap senario yang serupa, tetapi masih sedikit berbeza. Procaccia ingin menunjukkan bagaimana sistem berdasarkan pengundian dapat menjadi penyelesaian untuk kecerdasan buatan "etika". "Pengarang karya itu sendiri mengakui bahawa sistem seperti itu, tentu saja, masih terlalu awal untuk diterapkan dalam praktik, tetapi ia membuktikan konsep yang sangat baik bahawa ia adalah mungkin.

Merentas moral

Video promosi:

Idea memilih antara dua hasil negatif secara moral bukanlah perkara baru. Etika menggunakan istilah yang terpisah untuknya: prinsip kesan berganda. Tetapi ini adalah bidang bioetika, tetapi sebelumnya tidak ada yang menerapkan sistem seperti itu pada sebuah mobil, dan oleh itu kajian itu menimbulkan minat khusus di kalangan pakar di seluruh dunia. Pengerusi Bersama OpenAI, Elon Musk percaya bahawa mewujudkan AI "etika" adalah masalah untuk mengembangkan garis panduan atau polisi yang jelas untuk membimbing pembangunan program. Ahli politik secara beransur-ansur mendengarkannya: sebagai contoh, Jerman mencipta prinsip etika pertama di dunia untuk kereta autonomi. Malah Alphabet AI DeepMind Google kini mempunyai jabatan etika dan moral awam.

Pakar lain, termasuk pasukan penyelidik dari Duke University, percaya bahawa cara terbaik untuk maju adalah dengan membuat "kerangka umum" yang menerangkan bagaimana AI akan membuat keputusan etika dalam situasi tertentu. Mereka percaya bahawa penyatuan pandangan moral kolektif, seperti dalam Mesin Moral yang sama, akan menjadikan kecerdasan buatan lebih bermoral di masa depan daripada masyarakat manusia moden.

Kritikan terhadap "mesin moral"

Bagaimanapun, pada masa ini prinsip "pendapat majoriti" tidak boleh dipercayai. Sebagai contoh, satu kumpulan responden mungkin mempunyai berat sebelah yang tidak biasa berlaku pada orang lain. Hasilnya adalah bahawa AI yang diberikan set data yang sama boleh membuat kesimpulan yang berbeza berdasarkan sampel maklumat yang berbeza.

Bagi Profesor James Grimmelmann, yang mengkhususkan diri dalam dinamika antara perisian, kekayaan, dan kuasa, idea moral masyarakat kelihatan cacat. "Ia tidak dapat mengajarkan etika AI, tetapi hanya menganugerahkannya dengan kesamaan standard etika yang terdapat pada bahagian penduduk tertentu," katanya. Dan Procaccia sendiri, seperti disebutkan di atas, mengakui bahawa penyelidikan mereka tidak lebih dari bukti konsep yang berjaya. Namun, dia yakin bahawa pendekatan seperti itu dapat membawa kejayaan pada keseluruhan kempen untuk mewujudkan AI yang bermoral tinggi di masa depan. "Tidak diragukan lagi, demokrasi, mempunyai sejumlah kekurangan, tetapi sebagai sistem yang disatukan, ia berfungsi - walaupun beberapa orang masih membuat keputusan yang tidak disetujui oleh majoriti."

Vasily Makarov

Disyorkan: