Kecerdasan Buatan Emosi: Siapa Dan Mengapa Mengenali Emosi Di Rusia Dan Di Luar Negara - Pandangan Alternatif

Isi kandungan:

Kecerdasan Buatan Emosi: Siapa Dan Mengapa Mengenali Emosi Di Rusia Dan Di Luar Negara - Pandangan Alternatif
Kecerdasan Buatan Emosi: Siapa Dan Mengapa Mengenali Emosi Di Rusia Dan Di Luar Negara - Pandangan Alternatif

Video: Kecerdasan Buatan Emosi: Siapa Dan Mengapa Mengenali Emosi Di Rusia Dan Di Luar Negara - Pandangan Alternatif

Video: Kecerdasan Buatan Emosi: Siapa Dan Mengapa Mengenali Emosi Di Rusia Dan Di Luar Negara - Pandangan Alternatif
Video: SUTRADARA ASAL AMERIKA KAGET DENGAR JAWABAN PUTIN TENTANG MUSLIM RUSIA YANG SEMAKIN BANYAK !!! 2024, Mungkin
Anonim

Kecerdasan buatan berkembang secara aktif di Rusia dan dunia - termasuk emosi. Dia berminat dengan syarikat besar dan perusahaan baru yang bercita-cita tinggi yang memperkenalkan perkembangan baru dalam bidang peruncitan, pemasaran, pendidikan, perbankan, dan merekrut. Menurut Mordor Intelligence, pasaran pengecam emosi bernilai $ 12 bilion pada tahun 2018 dan akan meningkat menjadi $ 92 bilion pada tahun 2024.

Apa itu AI emosi

Emotion AI (Emotion AI) adalah AI yang membolehkan komputer mengenali, mentafsir dan bertindak balas terhadap emosi manusia. Kamera, mikrofon, atau sensor yang dapat dipakai membaca keadaan seseorang, dan rangkaian saraf memproses data untuk menentukan emosi.

Terdapat dua cara utama untuk menganalisis emosi:

  1. Hubungi. Seseorang dipasang pada alat yang membaca denyutan nadi, impuls elektrik badan dan petunjuk fisiologi lain. Teknologi sedemikian dapat menentukan bukan sahaja emosi, tetapi juga tahap tekanan atau kemungkinan serangan epilepsi.
  2. Tidak boleh dihubungi. Emosi dianalisis berdasarkan rakaman video dan audio. Komputer mempelajari ekspresi wajah, gerak isyarat, pergerakan mata, suara dan pertuturan.

Untuk melatih rangkaian saraf, saintis data mengumpulkan sampel data dan menandakan perubahan secara manual keadaan emosi seseorang. Program ini mengkaji corak dan memahami tanda mana yang menjadi emosi.

Rangkaian saraf dapat dilatih menggunakan data yang berbeza. Sebilangan syarikat dan makmal menggunakan rakaman video, yang lain mengkaji suara, dan ada yang mendapat keuntungan dari pelbagai sumber. Tetapi semakin banyak data, semakin tepat hasilnya.

Pertimbangkan dua sumber utama:

Video promosi:

Foto dan gambar dari video

Imej diproses terlebih dahulu untuk memudahkan AI bekerja. Ciri-ciri wajah - kening, mata, bibir dan sebagainya - ditandai dengan titik. Rangkaian saraf menentukan kedudukan titik, membandingkannya dengan tanda-tanda emosi dari templat dan menyimpulkan emosi mana yang dipantulkan - kemarahan, ketakutan, kejutan, kesedihan, kegembiraan atau ketenangan.

Terdapat juga pendekatan lain. Penanda emosi segera dicatat di wajah - sebagai contoh, senyuman atau kening mengerutkan kening. Kemudian rangkaian saraf mencari penanda pada gambar, menganalisis kombinasi mereka dan menentukan keadaan orang tersebut.

Kajian penanda emosi bermula pada abad ke-20. Benar, maka mereka dianggap terpisah dari rangkaian saraf. Saintis Paul Ekman dan Wallace Friesen mengembangkan Facial Action Coding System (FACS) pada tahun 1978. Ia menguraikan ekspresi wajah menjadi pergerakan otot individu, atau Unit Tindakan. Penyelidik mengkaji unit motor dan membandingkannya dengan emosi.

Suara dan pertuturan

Rangkaian saraf mengeluarkan banyak parameter suara dari isyarat akustik - misalnya, nada dan irama. Dia mengkaji perubahan masa mereka dan menentukan keadaan penuturnya.

Kadang kala spektrogram digunakan untuk latihan - gambar yang menunjukkan kekuatan dan kekerapan isyarat dari masa ke masa. Di samping itu, AI menganalisis perbendaharaan kata untuk hasil yang lebih tepat.

Di manakah teknologi yang digunakan

Penjualan dan pengiklanan

Penggunaan teknologi pengecam emosi yang paling jelas adalah dalam pemasaran. Dengan bantuan mereka, anda dapat menentukan bagaimana video iklan mempengaruhi seseorang. Untuk melakukan ini, anda boleh, misalnya, memasang struktur dengan kamera yang akan mengubah iklan bergantung pada mood, jantina dan usia orang yang lewat.

Reka bentuk serupa dikembangkan oleh pemula Cloverleaf dan Affectiva. Mereka memperkenalkan iklan shelfpoint elektronik yang disebut shelfPoint yang mengumpulkan data mengenai emosi pembeli. Teknologi baru telah diuji oleh Procter & Gamble, Walmart dan syarikat besar lain. Menurut Cloverleaf, penjualan meningkat 10-40%, sementara penglibatan pelanggan meningkat 3-5 kali.

Pilihan yang lebih luar biasa adalah perunding robot dengan kepintaran buatan. Dia akan berinteraksi dengan pelanggan, membaca emosi mereka dan mempengaruhi mereka. Dan juga membuat tawaran yang diperibadikan.

Image
Image

Robot perkhidmatan itu dipersembahkan oleh Promobot permulaan Rusia. Ia menggunakan rangkaian saraf yang dikembangkan oleh Neurodata Lab, yang menentukan emosi dari beberapa sumber sekaligus: rakaman wajah, suara, pergerakan, serta pernafasan dan denyutan nadi.

Promobot menjual robotnya secara aktif di luar negara. Pada tahun 2018, syarikat permulaan menandatangani kontrak dengan syarikat Amerika Intellitronix dengan harga $ 56.7 juta, dan seterusnya bersetuju untuk membekalkan peranti ke Arab Saudi, Israel, Kuwait dan Sweden - bagi mereka syarikat itu akan menerima $ 1.1 juta. Menurut Promobot, hari ini 492 robot sedang berfungsi di 34 negara di seluruh dunia sebagai pemandu, pekerja runding, perunding dan penganjur.

Bank

Teknologi pengecaman emosi membantu bank mendapatkan maklum balas pelanggan tanpa tinjauan dan meningkatkan perkhidmatan. Kamera video dipasang di jabatan, dan algoritma untuk rakaman menentukan kepuasan pengunjung. Rangkaian saraf juga dapat menganalisis suara dan ucapan pelanggan dan pengendali semasa panggilan ke pusat hubungan.

Di Rusia, mereka telah lama berusaha menerapkan AI emosi: ia diuji di Sberbank pada tahun 2015, dan tiga tahun kemudian, Alfa-Bank melancarkan percubaannya untuk menganalisis emosi dari video. Selain rakaman dari kamera pengintai, rakaman panggilan juga digunakan. VTB melancarkan projek perintis untuk melaksanakan AI emosi pada tahun 2019. Dan Rosbank, bersama dengan Neurodata Lab, telah menguji penentuan emosi pelanggan melalui suara dan pertuturan. Pelanggan memanggil bank, dan rangkaian saraf menganalisis keadaannya dan makna perbualan. Di samping itu, AI melihat jeda dalam ucapan, kelantangan suara dan masa komunikasi operator. Ini memungkinkan bukan sahaja untuk memeriksa kepuasan dengan perkhidmatan itu, tetapi juga untuk memantau kerja pengendali pusat hubungan.

Kini Rosbank telah melaksanakan penyelesaiannya sendiri untuk mengenali emosi. Daripada isyarat akustik, sistem menganalisis teks, sementara ketepatannya tetap tinggi.

Pusat Teknologi Ucapan juga terlibat dalam mengenali emosi dalam pertuturan (Sberbank memiliki kepentingan utama). Perkhidmatan Smart Logger menganalisis suara dan perbendaharaan kata pelanggan dan pengendali, masa bercakap dan jeda untuk mengetahui kepuasan dengan perkhidmatan tersebut.

Bidang hiburan

Sistem pengecaman emosi dapat digunakan untuk mengukur reaksi penonton terhadap sebuah filem. Disney pada tahun 2017, bekerjasama dengan saintis, melakukan eksperimen: memasang kamera di pawagam dan menghubungkan algoritma pembelajaran mendalam untuk menilai emosi penonton. Sistem ini dapat meramalkan reaksi orang dengan memerhatikannya hanya beberapa minit. Semasa percubaan, kami mengumpulkan set data yang mengagumkan: 68 penanda dari setiap 3,179 penonton. Secara keseluruhan, 16 juta gambar wajah diperoleh.

Untuk tujuan yang sama, hosting video YouTube telah membuat AI sendiri yang disebut YouFirst. Ini membolehkan blogger dan perniagaan video menguji kandungan sebelum dilancarkan ke platform. Pengguna mengklik pada pautan khas, bersetuju untuk merakam video dan menonton video tersebut. Pada masa ini, rangkaian saraf menentukan reaksi mereka dan mengirimkan data kepada pemilik saluran.

Di antara syarikat Rusia, reaksi terhadap video dapat dianalisis, misalnya, oleh Neurobotics. Syarikat itu telah mengembangkan program EmoDetect yang mengenali kegembiraan, kesedihan, kejutan, ketakutan, kemarahan, jijik dan berkecuali. Program ini mengkaji hingga 20 ciri wajah tempatan dalam bingkai beku dan rangkaian gambar. Sistem ini menganalisis unit motor dan menggunakan teknologi pengekodan wajah FACS. Adalah mungkin untuk merakam video dari kamera web. API EmoDetect membolehkan anda mengintegrasikan produk dengan aplikasi luaran.

AI emosi juga mula diterapkan dalam industri permainan. Ini membantu memperibadikan permainan dan menambahkan lebih banyak interaksi dengan pemain permainan.

Contohnya, syarikat AI emosi Amerika, Affectiva, membantu mencipta thriller psikologi Nevermind. Ketegangan bergantung pada keadaan pemain: plot menjadi lebih gelap ketika dia dalam keadaan tertekan, dan sebaliknya.

Image
Image

Pendidikan

Pengiktirafan emosi juga berlaku untuk pendidikan. Ia boleh digunakan untuk mengkaji mood dan perhatian pelajar semasa kelas.

Pembangun Rusia telah menggunakan AI emosi di Perm. Dorongan untuk pengembangan teknologi adalah serangan pelajar terhadap pelajar sekolah rendah dan guru. Rostelecom dan startup New Vision telah membangunkan program Smart and Safe School untuk memantau keadaan emosi kanak-kanak. Ini akan membantu mengenal pasti remaja asosial sebelum tragedi berlaku.

Ia berdasarkan sistem Paul Ekman. Rangkaian saraf menganalisis pergerakan otot sedikit sebanyak 150 titik pada wajah. Sebilangan besar data dikumpulkan semasa pelajaran: 5-6 ribu bingkai untuk setiap pelajar. Program ini mengkaji set data dan mengira keadaan emosi setiap kanak-kanak. Menurut pencipta, ketepatannya adalah 72%.

HR

AI emosi boleh berguna dalam bekerja dengan kakitangan. Ini membantu menentukan keadaan pekerja, menyedari keletihan atau ketidakpuasannya dalam masa, dan mengagihkan tugas dengan lebih berkesan.

Di samping itu, teknologi membantu pengambilan pekerja. Dengan bantuan AI emosi, anda boleh memeriksa calon pekerjaan atau menipu semasa temu duga.

Syarikat Amerika HireVue menggunakan kecerdasan buatan untuk menilai calon. Pemohon melalui temu ramah video, dan rangkaian saraf menentukan keadaannya dengan kata kunci, intonasi suara, pergerakan dan ekspresi wajah. AI mengetengahkan ciri-ciri yang penting untuk pekerjaan dan memberi markah, dan pengurus SDM memilih calon yang tepat.

Permulaan yang berpangkalan di London Human menggunakan video untuk mengenal pasti emosi dan memadankannya dengan ciri watak. Selepas wawancara video, perekrut menerima laporan yang mengatakan betapa jujur, ingin tahu, bersemangat, bersemangat, atau yakin calon dan bagaimana dia menjawab soalan.

Ubat

Di kawasan ini, bukan sahaja bukan hubungan, tetapi juga kaedah hubungan untuk menentukan emosi akan berguna. Mereka dilaksanakan secara aktif oleh syarikat permulaan asing - contohnya, Affectiva dan Brain Power. Perkembangan syarikat termasuk kacamata AI yang membantu kanak-kanak dan orang dewasa dengan autisme mengenali emosi orang lain dan mengembangkan kemahiran sosial.

Tetapi rangkaian saraf dapat membantu pesakit tanpa sensor yang boleh dipakai. Para saintis di Massachusetts Institute of Technology telah membuat rangkaian saraf yang mengesan kemurungan dengan menganalisis ucapan seseorang. Ketepatan hasilnya adalah 77%. Dan permulaan Beyond Verbal menggunakan AI untuk menganalisis kesihatan mental pesakit. Dalam kes ini, rangkaian saraf hanya memilih biomarker suara dari rakaman audio.

Kereta

Massachusetts Institute of Technology sedang mengembangkan AI yang disebut AutoEmotive yang akan menentukan keadaan pemandu dan penumpang. Dia tidak hanya akan memantau tahap tekanan, tetapi juga berusaha untuk mengurangkannya - dengan memainkan musik lembut, menyesuaikan suhu di kabin atau mengambil jalan yang tidak terlalu sibuk.

Batasan AI emosi

Rangkaian saraf tidak dapat mengambil kira konteksnya

AI telah belajar mengenal pasti emosi dan keadaan manusia yang asas, tetapi setakat ini ia tidak dapat mengatasi situasi yang lebih kompleks. Para saintis menyatakan bahawa ekspresi wajah tidak selalu menunjukkan secara tepat bagaimana perasaan seseorang. Senyumannya dapat berpura-pura atau sarkastik, dan ini hanya dapat ditentukan oleh konteks.

Pakar NtechLab percaya bahawa masih sukar untuk menentukan sebab emosi ini atau yang tepat.

NtechLab menekankan bahawa perlu untuk mengenali bukan sahaja ekspresi wajah, tetapi juga pergerakan manusia. Data yang pelbagai akan menjadikan AI emosi jauh lebih cekap. Daniil Kireev, penyelidik terkemuka di syarikat pembangunan produk pengenalan wajah VisionLabs, bersetuju dengan ini. Pada pendapatnya, dengan sejumlah besar data, ketepatan algoritma meningkat.

Ada kesalahan, jumlahnya bergantung pada banyak faktor: kualitas sampel latihan, jaringan saraf terlatih, data di mana sistem akhir berfungsi. Dengan menambahkan maklumat dari pelbagai sumber - misalnya, suara - anda dapat meningkatkan kualiti sistem. Pada masa yang sama, penting untuk memahami bahawa dengan wajah kita lebih suka menentukan ekspresinya daripada emosi terakhir. Algoritma mungkin cuba menentukan emosi yang disimulasikan, tetapi untuk ini, pengembangan teknologi mesti mengambil langkah kecil ke depan,”kata Daniil Kireev.

Peralatannya teruk

Faktor luaran mempengaruhi kualiti algoritma. Agar ketepatan pengecaman emosi menjadi tinggi, kamera video dan mikrofon mestilah berkualiti tinggi. Selain itu, hasilnya dipengaruhi oleh pencahayaan, lokasi kamera. Menurut Daniil Kireev, keadaan yang tidak terkawal menyukarkan proses menentukan keadaan seseorang.

Agar AI emosi berkembang, anda memerlukan perkakasan yang berkualiti. Sekiranya anda menjumpai peralatan yang baik dan memasangnya dengan betul, ketepatan hasilnya akan sangat tinggi. Dan apabila ia menjadi lebih mudah diakses dan meluas, teknologi pengecam emosi akan ditingkatkan dan dilaksanakan dengan lebih aktif.

“Ketepatan sistem bergantung pada banyak faktor. Yang utama adalah kualiti bingkai pegun dari kamera, yang diberikan kepada sistem untuk dikenali. Kualiti bingkai pegun, pada gilirannya, dipengaruhi oleh tetapan dan ciri kamera, matriks, pencahayaan, lokasi perangkat, jumlah wajah dalam bingkai. Dengan konfigurasi perkakasan dan perisian yang betul, adalah mungkin untuk mencapai ketepatan emosi yang dapat dikesan hingga 90-95%,”kata Vitaly Vinogradov, pengurus produk pengawasan video awan dan perkhidmatan analisis video Ivideon.

Perspektif Teknologi

Sekarang di Rusia, AI emosi hanya mendapat momentum. Permulaan mengembangkan teknologi dan memasarkan produk mereka, dan pelanggan mengujinya dengan berhati-hati.

Tetapi Gartner menganggarkan bahawa pada tahun 2024, lebih daripada separuh iklan dalam talian akan dibuat menggunakan AI emosi. Penglihatan komputer, yang digunakan untuk mengesan emosi, akan menjadi salah satu teknologi terpenting dalam 3-5 tahun ke depan. Dan MarketsandMarkets meramalkan bahawa pasaran analisis emosi akan berlipat ganda menjelang 2024 - dari $ 2.2 bilion hingga $ 4.6 bilion.

Di samping itu, syarikat besar menunjukkan minat untuk mengenali emosi - contohnya, Procter & Gamble, Walmart, VTB, Rosbank, Sberbank dan Alfa-Bank. Dan syarikat permulaan domestik sedang membangunkan projek perintis yang akan menjadi penyelesaian siap untuk perniagaan pada masa akan datang.

Evgeniya Khrisanfova

Disyorkan: