Kepintaran Buatan: Musuh Berbahaya Atau Penolong Yang Baik - Pandangan Alternatif

Kepintaran Buatan: Musuh Berbahaya Atau Penolong Yang Baik - Pandangan Alternatif
Kepintaran Buatan: Musuh Berbahaya Atau Penolong Yang Baik - Pandangan Alternatif

Video: Kepintaran Buatan: Musuh Berbahaya Atau Penolong Yang Baik - Pandangan Alternatif

Video: Kepintaran Buatan: Musuh Berbahaya Atau Penolong Yang Baik - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Penggunaan kecerdasan buatan (AI) dalam kehidupan seharian dengan cepat mendapat momentum, tetapi trend ini semakin menimbulkan kebimbangan para pakar. Kakitangan NYU menyediakan nota amaran mengenai risiko penggunaan I. I. Sebahagian besarnya, penulis memberi tumpuan kepada masalah etika dan sosial, serta kekurangan peraturan. Laporan kumpulan AI Now mengatakan tidak banyak yang baru, tetapi dalam praktik dunia, persoalan mengenai keperluan untuk membatasi kerja pemikiran buatan semakin banyak dibangkitkan.

Hampir semua penglihatan kemajuan teknologi berbicara mengenai potensi ancaman terhadap AI. Stephen Hawking pada bulan November tahun lalu menyuarakan ketakutan utama yang menyertai refleksi terhadap perkembangan teknologi. Pada pendapatnya, komputer lambat laun akan belajar menghasilkan semula. Makhluk biologi cenderung kehilangan kecerdasan silikon dari segi kemampuan mental dan dari segi kemampuan menyesuaikan diri dengan alam sekitar, terutama di planet lain. Cepat atau lambat, robot pintar akan menganggap manusia sebagai bentuk usang dan ingin menyingkirkannya.

Kata-kata Hawking masih terdengar seperti kisah seram, diputar puluhan kali dalam filem dan buku, tetapi bahkan mereka yang mengusahakan pelaksanaan sistem pintar menjadi semakin takut akan masa depan dengan AI, walaupun ada yang menganggap ketakutan seperti itu terlalu dini. "Takut dengan perkembangan AI hari ini seperti mengkhawatirkan penduduk yang berlebihan dari Mars," kata Andrew Ng, ketua Google Brain. Namun, dia tidak meyakinkan semua orang.

Image
Image

Di antara fobia terbesar yang berkaitan dengan pengenalan komputer ke dalam semua bidang kehidupan, tiga perlu diperhatikan. Pertama, minda komputer akan digunakan sebagai senjata perang, yang akan melampaui senjata nuklear dengan kekuatan yang merosakkan. Yang kedua adalah bahawa AI akan memperbudak manusia. Ketiga, seperti ciptaan manusia, komputer rawan kesalahan. Ketiga-tiga perkara itu dapat dibincangkan dengan lebih terperinci.

Pada 21 Ogos 2017, pakar terkemuka dalam bidang penyelidikan dan pelaksanaan kecerdasan buatan, termasuk ketua syarikat seperti SpaceX dan Deep Mind, mengirim surat terbuka kepada PBB. Dalam teks itu, mereka memperingatkan masyarakat dunia agar tidak mengembangkan senjata otonom yang mematikan, baik robot atau mekanisme lain yang dirancang untuk membunuh musuh. Pengarang dokumen tersebut menarik perhatian akibat akibat penggunaan senjata tersebut. Dengan keberkesanannya yang luar biasa, wajar untuk bertanya pada tangan siapa ia akan jatuh. Ia boleh digunakan oleh kalangan elit dan pengganas yang sempit.

Para penulis surat itu meminta organisasi kawalan, dan bersama komuniti saintifik, untuk menguraikan skop penggunaan AI yang berbahaya. Tanggungjawab yang dihadapi seseorang untuk ciptaannya sendiri memaksanya melakukan kerja yang serius untuk mengelakkan risiko. Sebagai tambahan kepada undang-undang, pencipta mereka juga mesti mengehadkan kekuatan robot, yang harus memikirkan bagaimana mematikan mesin dalam kes yang melampau.

Image
Image

Video promosi:

Penyalahgunaan politik sistem elektronik telah ditunjukkan melalui kerja rangkaian sosial dan algoritma analisis data. Pada musim bunga tahun ini, skandal dengan Cambridge Analytica bergemuruh di dunia. Pakarnya melakukan analisis mendalam mengenai data pengguna dan meletakkan iklan di Facebook, disesuaikan secara individu untuk setiap orang.

Kakitangan syarikat bukan sahaja melintasi kerangka etika, tetapi juga menggunakan teknologi moden, yang karya mereka mustahil untuk dianalisis. Keberkesanan pembelajaran mesin adalah tema berulang di kalangan ahli matematik terkemuka. Mereka mengakui secara serentak bahawa mereka kagum dengan kejayaan luar biasa dalam program komputer, tetapi mereka sama sekali tidak dapat memahami kerja sistem yang kompleks. Di Myanmar pada April tahun ini, catatan Facebook juga menimbulkan kerusuhan di kalangan orang ramai, tetapi tidak seperti Amerika Syarikat, di mana tunjuk perasaan dilakukan, di negara Asia ada pembunuhan beramai-ramai, yang mengorbankan beberapa ratus orang. Manipulasi sebilangan besar orang adalah kenyataan dan robot di sini boleh memainkan jenaka kejam dengan kami.

Image
Image

Perlu diingat Facebook yang sama, di mana chatbots berasaskan AI dilancarkan. Pembantu maya dilatih untuk melakukan dialog dengan pembicara. Lama kelamaan, bot menjadi tidak dapat dibezakan dari orang sebenar, dan kemudian penulis memutuskan untuk membawa robot bersama. Dari masa ke masa, bot mula memendekkan struktur leksikal dan menukar omong kosong. Media meningkatkan sensasi dari berita itu, mereka mengatakan "mesin-mesin itu memberontak" Tetapi mengesampingkan keterlaluan wartawan, adalah wajar untuk mengakui bahawa sekiranya mesin mula berkomunikasi antara satu sama lain, seseorang mungkin tidak menyedari hal ini. Dan bagaimana mereka akan menjalani kehidupan mereka sendiri di sana - tidak ada yang tahu.

Struktur minda komputer yang semakin kompleks setiap hari menjauhkan kita daripada memahami prinsip-prinsip kerjanya. Tetapi sementara kebanyakan algoritma menjalankan tugas mereka, walaupun pada masa ini mesin kompleks jauh dari ideal dan melakukan kesilapan. Untuk pengembangan AI lebih lanjut, adalah penting untuk memahami kekuatan dan kelemahannya. Oleh kerana itulah, sebilangan besar kumpulan ilmiah menjadi tumpuan, di mana salah satu pakar MIT Anish bekerja. Beberapa hari yang lalu, dia memberitahu wartawan mengenai kesalahan yang paling biasa dalam sistem pengecaman imej.

Rakan-rakannya menunjukkan objek ke mesin dan mendapati bahawa sering objek individu yang dirasakan salah oleh penglihatan elektronik. Komputer boleh memanggil baseball secawan kopi, dan penyu cetak 3D sebagai mesin tentera. Kumpulan ini telah mengumpulkan kira-kira 200 item yang merupakan algoritma yang mengelirukan.

Image
Image

Kecerdasan buatan, bukannya melihat objek secara keseluruhan, tertumpu pada parameter individu. AI cenderung belajar dari sampel "sempurna". Ketika berhadapan dengan fenomena yang tidak sesuai, dia tidak boleh selalu meninggalkan proses pemprosesan yang biasa. Alih-alih mengakui ketidakmampuannya memproses gambar, dia terus berusaha membaca gambar itu dan ini membawa kepada hasil yang kadang-kadang lucu. Daripada bentuk penyu, otak elektronik cuba membaca teksturnya, mirip dengan penyamaran. Atas sebab yang hampir sama, autopilot e-kereta belum boleh dipercayai 100%. Sukar bagi sebuah kereta untuk melihat bayangan dan menganggapnya terdiri daripada unsur-unsur yang berasingan.

Dan jika pada tahun-tahun mendatang beberapa kekurangan dapat diperbaiki, tidak ada jaminan bahawa penggodam tidak akan memanfaatkan kerentanan tersebut. Peretas peranti elektronik hari ini mewakili hampir penyebab utama ketakutan. Sekumpulan kecil pengaturcara tidak hanya dapat memperoleh akses ke maklumat peribadi, tetapi juga mengkonfigurasi ulang sistem autonomi, dengan mengendalikan alat-alat kekuatan besar. Dan kita semua akan berada dalam masalah. Tetapi kesimpulan utama yang dapat diambil adalah mungkin yang tradisional - anda tidak perlu takut dengan kereta, tetapi orang.

Alexander Lavrenov

Disyorkan: