AI Boleh Mengubah Hidup Kita Selama-lamanya - Tetapi Kita Kini Berada Di Jalan Yang Gelap - Pandangan Alternatif

AI Boleh Mengubah Hidup Kita Selama-lamanya - Tetapi Kita Kini Berada Di Jalan Yang Gelap - Pandangan Alternatif
AI Boleh Mengubah Hidup Kita Selama-lamanya - Tetapi Kita Kini Berada Di Jalan Yang Gelap - Pandangan Alternatif

Video: AI Boleh Mengubah Hidup Kita Selama-lamanya - Tetapi Kita Kini Berada Di Jalan Yang Gelap - Pandangan Alternatif

Video: AI Boleh Mengubah Hidup Kita Selama-lamanya - Tetapi Kita Kini Berada Di Jalan Yang Gelap - Pandangan Alternatif
Video: Final Cut Pro X – монтаж видео от Apple. Большой урок от А до Я! 2024, Mungkin
Anonim

Kecerdasan buatan (AI) telah membentuk semula dunia dengan cara yang dapat dilihat. Data mendorong ekosistem digital global kami, dan teknologi AI mengungkap corak dalam data.

Telefon pintar, rumah pintar dan bandar pintar mempengaruhi cara kita hidup dan berinteraksi, dan sistem kecerdasan buatan semakin terlibat dalam pengambilan keputusan, diagnostik perubatan dan penilaian. Sama ada senario ini utopia atau dystopian bergantung kepada kita.

Potensi risiko AI disenaraikan berkali-kali. Robot pembunuh dan pengangguran besar-besaran adalah masalah biasa, sementara sebilangan orang takut akan kepunahan. Unjuran yang lebih optimis mendakwa bahawa AI akan menambahkan $ 15 trilion untuk ekonomi global menjelang 2030 dan akhirnya membawa kita ke beberapa jenis nirvana sosial.

Kita semestinya perlu mempertimbangkan kesan teknologi tersebut kepada masyarakat kita. Satu masalah utama adalah bahawa sistem AI memperkuat bias sosial yang ada - hingga kesan buruk.

Beberapa contoh fenomena ini yang terkenal telah mendapat perhatian meluas: sistem terjemahan mesin automatik moden dan sistem pengenalan imej.

Masalah-masalah ini timbul kerana sistem seperti itu menggunakan model matematik (seperti rangkaian neural) untuk menentukan corak dalam set data latihan yang besar. Sekiranya data ini diputarbelitkan dengan pelbagai cara, maka kesalahan yang tidak dapat dilupakan pasti akan dikaji dan diterbitkan semula oleh sistem terlatih.

Teknologi autonomi berat sebelah bermasalah kerana mereka berpotensi mengasingkan kumpulan seperti wanita, etnik minoriti atau orang tua, sehingga memperburuk ketidakseimbangan sosial yang ada.

Sekiranya sistem AI dilatih, misalnya, dari data penangkapan polis, maka bias sedar atau tidak sedar yang ditunjukkan dalam skema penangkapan yang ada akan diduplikasi oleh sistem AI "pandangan jauh polis" yang dilatih dari data ini.

Video promosi:

Menyedari implikasi serius dari ini, pelbagai organisasi ternama baru-baru ini mengesyorkan agar semua sistem kecerdasan buatan dilatih berdasarkan data objektif. Garis panduan etika yang diterbitkan pada awal tahun 2019 oleh Suruhanjaya Eropah mencadangkan cadangan berikut:

Apabila data dikumpulkan, data tersebut mungkin mengandungi kesalahan, ketidaktepatan yang dibina secara sosial. Ini mesti ditangani sebelum melatih AI pada sebarang set data.

Ini semua terdengar cukup masuk akal. Malangnya, kadang-kadang tidak mungkin untuk memastikan ketaksuban set data tertentu sebelum latihan. Contoh konkrit harus menjelaskan perkara ini.

Semua sistem terjemahan mesin moden (seperti Terjemahan Google) belajar dari pasangan ayat.

Sistem Anglo-Perancis menggunakan data yang menghubungkan ayat bahasa Inggeris ("dia tinggi") dengan kalimat bahasa Perancis yang setara ("elle est grande").

Mungkin ada 500 juta pasangan seperti itu dalam set data latihan yang diberikan, dan oleh itu hanya satu bilion ayat individu. Semua bias jantina mesti dikeluarkan dari set data seperti ini jika kita ingin mengelakkan hasil seperti yang berikut dihasilkan dalam sistem:

Terjemahan Bahasa Perancis dibuat menggunakan Terjemahan Google pada 11 Oktober 2019 dan tidak betul: "Ils" adalah jamak maskulin dalam bahasa Perancis dan ia muncul di sini walaupun konteksnya dengan jelas menunjukkan bahawa ia sedang dirujuk pada wanita.

Ini adalah contoh klasik sistem automatik yang memilih standard lelaki lalai kerana berat sebelah dalam data latihan.

Secara keseluruhan, 70 peratus kata ganti nama umum dalam kumpulan data terjemahan adalah maskulin dan 30 peratus adalah feminin. Ini disebabkan oleh fakta bahawa teks yang digunakan untuk tujuan tersebut lebih sering merujuk kepada lelaki daripada wanita.

Untuk mengelakkan pengulangan kesilapan sistem terjemahan yang ada, adalah perlu untuk mengecualikan pasangan ayat tertentu dari data sehingga kata ganti nama diri maskulin dan feminin bertemu dalam nisbah 50/50 di kedua-dua pihak Inggeris dan Perancis. Ini akan mengelakkan sistem memberikan kebarangkalian yang lebih tinggi untuk kata ganti nama diri maskulin.

Dan walaupun subset data yang dihasilkan seimbang sepenuhnya dari segi jantina, data tersebut masih akan berubah dengan pelbagai cara (contohnya, etnik atau usia). Sebenarnya, sukar untuk menghilangkan semua kesalahan ini.

Sekiranya seseorang meluangkan masa hanya lima saat untuk membaca setiap satu miliar ayat dalam data latihan AI, akan memerlukan 159 tahun untuk menguji semuanya - dan itu mengandaikan kesediaan untuk bekerja sepanjang hari dan malam, tanpa rehat makan tengah hari.

Alternatif?

Oleh itu, tidak realistik untuk meminta semua set data latihan tidak berat sebelah sebelum sistem AI dibina. Keperluan tahap tinggi seperti itu biasanya menganggap bahawa "AI" menunjukkan kelompok model matematik dan pendekatan algoritma yang homogen.

Sebenarnya, tugas AI yang berbeza memerlukan jenis sistem yang sama sekali berbeza. Dan meremehkan kepelbagaian ini sepenuhnya dapat mengatasi masalah sebenar yang berkaitan dengan, katakanlah, data yang sangat diputarbelitkan. Ini sangat disayangkan kerana ini bermaksud bahawa penyelesaian lain untuk masalah bias data diabaikan.

Sebagai contoh, bias dalam sistem terjemahan mesin terlatih dapat dikurangkan dengan ketara jika sistem disesuaikan setelah ia dilatih pada set data yang besar dan pasti berat sebelah.

Ini dapat dilakukan dengan menggunakan set data yang jauh lebih kecil dan kurang rosak. Oleh itu, sebahagian besar data dapat sangat berat sebelah, tetapi sistem terlatih tidak diperlukan. Malangnya, kaedah ini jarang dibincangkan oleh mereka yang mengembangkan garis panduan dan kerangka undang-undang untuk penyelidikan AI.

Sekiranya sistem AI hanya memperburuk ketidakseimbangan sosial yang ada, mereka lebih cenderung tidak menggalakkan daripada mendorong perubahan sosial yang positif. Sekiranya teknologi AI yang kita gunakan setiap hari jauh lebih berat sebelah daripada kita, mereka dapat membantu kita mengenali dan menghadapi prasangka kita sendiri.

Sudah tentu, inilah yang harus kita perjuangkan. Oleh itu, pereka AI perlu berfikir dengan lebih teliti mengenai implikasi sosial sistem yang mereka buat, sementara mereka yang menulis mengenai AI perlu lebih memahami bagaimana sistem AI sebenarnya dirancang dan dibina.

Kerana jika kita benar-benar mendekati idilis teknologi atau kiamat, yang pertama lebih disukai.

Victoria Vetrova

Disyorkan: