Adakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menggembirakan Seseorang - Pandangan Alternatif

Isi kandungan:

Adakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menggembirakan Seseorang - Pandangan Alternatif
Adakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menggembirakan Seseorang - Pandangan Alternatif

Video: Adakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menggembirakan Seseorang - Pandangan Alternatif

Video: Adakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menggembirakan Seseorang - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Bagaimana komputer membuat keputusan yang pelik

Kecerdasan buatan berkembang dengan pesat sehingga banyak yang mulai merasa cemas: jika tidak lama lagi dapat mengalami emosi dan membuat keputusan sendiri. Sama ada bot, kenderaan autonomi atau pembuat keputusan dalam perniagaan dan sains: kecerdasan buatan menembusi semua bidang kehidupan dan masyarakat kita. Otak mesin dianggap logik, tidak emosional dan tidak memihak, tetapi praktik menunjukkan bahawa mereka tidak selalu memutuskan semuanya dengan fikiran terbuka.

Image
Image

Kecerdasan buatan sangat diperlukan di mana penting untuk mengenali corak dalam jumlah besar data dan membuat keputusan berdasarkannya. Tetapi di masa depan, sistem kecerdasan buatan juga dapat digunakan di daerah di mana kesejahteraan kita dan bahkan kehidupan kita secara langsung bergantung pada kesimpulan - dalam bidang perubatan, dalam pemilihan pekerjaan, dalam penerbitan pinjaman dan keadilan.

Sejauh mana betul dan objektif moral kecerdasan buatan membuat keputusan? Bolehkah kita benar-benar mempercayai otak mesin untuk membuat keputusan yang berpotensi penting?

Kecerdasan buatan digunakan di semua bidang

Walaupun sekarang, algoritma adaptif digunakan dalam banyak bidang kehidupan seharian kita. Terdapat pembantu digital untuk memahami arahan suara dan soalan. Di Internet, bot web membantu menjaga dan mengawal laman web sehingga sukar dibezakan dengan manusia. Walaupun berita palsu dan manipulasi gambar dikesan, sistem kecerdasan buatan terlibat.

Video promosi:

Image
Image

Sistem AI juga menjalankan tugasnya dalam industri, perniagaan, dan juga pemerintahan. Mereka mengoptimumkan dan mengawal proses pengeluaran, mengatur logistik pelabuhan kontena dan gudang besar atau menyimpan rekod perakaunan. Syarikat insurans dan bank sudah mempunyai program pintar pertama untuk memeriksa permohonan yang diserahkan atau membuat keputusan mengenai pembayaran. Di Ikea, Deutsche Telekom, dan banyak syarikat lain, UNICEF atau perpustakaan, pembantu maya terlibat dalam perkhidmatan pelanggan.

Sebilangan besar data diproses untuk latihan

Semua ini dapat dilakukan berkat kemampuan sistem AI untuk menganalisis sejumlah besar data dengan cepat, untuk mengenal pasti corak dan korelasi. Sebagai contoh, algoritma belajar dari banyak gambar haiwan peliharaan dengan nama yang sepadan. Selepas tempoh latihan, sistem dapat memilih foto baru dari spesies yang diinginkan. Ia menyedari perbezaannya sendiri.

Image
Image

Banyak sistem AI lain menggunakan teks sebagai asas untuk belajar. Mereka menilai konteks di mana suatu kata berdiri dan mengkaji makna semantiknya, serta hubungan dengan kata-kata atau sinonim yang serupa. Hubungan semantik ini menterjemahkan program menjadi ungkapan matematik dan dengan demikian belajar bahkan konteks semantik yang kompleks.

Hanya dengan kemampuan inilah kecerdasan buatan dapat, misalnya, menilai data perubatan dan rekod perubatan dan menyimpulkan ciri gambar klinikal dari mereka. Berdasarkan hasil ini, sistem AI sudah digunakan sebagai alat bantu diagnostik, mereka dapat mengenali pelbagai jenis barah, tanda-tanda penyakit Alzheimer, keadaan bunuh diri dan tahap gula berbahaya pada diabetes.

Tetapi semenarik bunyinya, semakin banyak AI mempunyai kelemahan besar. Semakin kecerdasan buatan menembusi hampir semua bidang masyarakat kita, semakin besar kemungkinan akibat keputusannya. Masa depan kewangan atau profesional seseorang, atau bahkan hidupnya, bergantung pada penilaiannya.

Penyelesaian AI yang boleh mengorbankan nyawa

Sebagai contoh, jika AI salah diagnosis dalam perubatan tanpa disoal, pesakit mungkin menjalani rawatan yang salah atau bahkan mati. Tentera menggunakan sistem senjata autonomi yang membuat keputusan yang salah. Sebagai contoh, AI tidak dapat membezakan rakan yang melarikan diri dari musuh, mati yang tidak bersalah.

Image
Image

Algoritma AI sudah digunakan di mahkamah di Amerika Syarikat. Mereka meramalkan kemungkinan berlakunya penolakan terhadap pesalah di mahkamah. Penilaian mereka sering mempengaruhi keputusan mahkamah dan, akibatnya, hukuman orang yang disabitkan kesalahan.

Sekiranya AI memutuskan pinjaman

Begitu juga, keputusan dalam kewangan dan insurans boleh mempengaruhi sama ada seseorang mendapat pinjaman atau tidak. Sistem ini biasanya dilatih menggunakan pangkalan data.

Image
Image

Dan di sini AI mencari corak: orang mana yang biasanya membayar balik pinjaman mereka dan yang tidak? Dia mengembangkan prosedur penilaiannya dan membuat keputusan yang sesuai. Secara khusus, ini bermaksud bahawa orang dengan tempat tinggal atau pekerjaan yang salah tidak akan menerima pinjaman, tidak kira berapa pun mereka sanggup membayar, walaupun keadaan ini berlaku.

Dengan sebaran tanggungjawab dengan komputer, seseorang hanya akan menjadi pembantu pelaksanaan keputusan otak siber. Dan ini sudah berlaku.

Siapa yang bertanggungjawab atas kesilapan?

Masalah lain dalam pengembangan AI: semakin kompleks prinsip pembuatan keputusan, semakin sukar bagi manusia untuk memahaminya. Ini juga menimbulkan persoalan siapa yang bertanggungjawab atas kesalahan.

Kes kemalangan ketika memandu kereta dengan autopilot menjadi lebih kerap: siapa yang harus dipersalahkan kerana beberapa situasi tidak disimpan dalam ingatan atau AI membuat kesimpulan yang salah. Atau mungkin dia membuat kesimpulan sendiri? Sudah ada contoh seperti itu.

Bot bermain telah mengembangkan peraturan mereka sendiri semasa permainan

Untuk kajian ini, para penyelidik membenarkan 100 bot pintar berinteraksi antara satu sama lain dalam permainan konsesi. Setiap daripada mereka mesti memutuskan sama ada mereka menyumbangkan sesuatu kepada seseorang dari pasukannya atau kepada peserta dari luar.

Image
Image

Anehnya, lama-kelamaan, bot semakin tersisih dari kumpulan luar dan hanya menderma kepada ahli pasukan mereka.

Image
Image

Sebabnya: bot pintar menyesuaikan strategi permainan mereka, menyalin tingkah laku rakan-rakan yang mengumpulkan paling banyak wang dan yang paling berjaya. Oleh itu, kumpulan bot muncul yang berkelakuan dengan cara yang sama dan secara konsisten mengecualikan peserta permainan yang tidak berkaitan. Terus mencipta sesuatu yang menghitung, menganalisis dan membuat keputusan lebih cepat daripadanya, suatu hari manusia akan kehilangan kawalan terhadap penciptaannya, tindakan yang tidak akan dapat dijejaki olehnya.

Menurut saintis, ini jelas: kecerdasan buatan tidak memerlukan data buatan agar berat sebelah, cukup untuk mempunyai mesin lain di sekitarnya. Kerana bahkan ini dapat mewujudkan minda kelompok yang dikenali dari masyarakat manusia. Oleh itu, dengan menggunakan AI, orang harus menyerahkan keputusan kepada diri mereka sendiri.

Vasilik Svetlana

Disyorkan: