Apa Bahaya Rangkaian Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif

Isi kandungan:

Apa Bahaya Rangkaian Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif
Apa Bahaya Rangkaian Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif

Video: Apa Bahaya Rangkaian Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif

Video: Apa Bahaya Rangkaian Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif
Video: Perjalanan Menembus Sistem Sarafmu 2024, Mungkin
Anonim

Adakah anda pernah berjumpa dengan orang di jalan yang akan menjadi satu seperti anda? Pakaian, wajah, gaya berjalan, cara berkomunikasi, kebiasaan sama dengan pakaian anda. Ia seperti diimbas dan dicetak pada pencetak. Kedengarannya agak menyeramkan, bukan? Sekarang bayangkan bahawa anda telah melihat video di mana orang seperti itu memberitahu sesuatu tentang dirinya. Paling baik, anda akan cuba mengingat ketika anda berjalan sedemikian rupa sehingga anda tidak ingat apa-apa, tetapi anda boleh mengatakannya di kamera. Walaupun semua ini terdengar seperti penaakulan yang mudah, tetapi teknologi sudah hampir dapat mewujudkan orang-orang seperti itu. Mereka sudah ada, tetapi tidak lama lagi akan ada banyak lagi.

Dari mana asalnya palsu?

Sekarang sudah terlalu banyak perkara yang biasa disebut palsu. Mereka ada di mana-mana. Foto-foto tersebut dapat ditemukan dalam foto, berita, produksi barang dan layanan maklumat. Lebih mudah untuk mengatakan di mana tidak ada fenomena yang disertakan dengan perkataan ini. Walaupun anda boleh melawan mereka. Anda boleh mempelajari asal-usul foto, memeriksa ciri khas produk berjenama dari palsu, dan memeriksa semula berita. Walaupun, berita adalah topik yang terpisah.

Pada masa ini, pengguna kandungan tidak mahu menunggu dan memerlukan pengeluaran segera dari penciptanya, kadang-kadang dia tidak peduli dengan kualiti, perkara utama adalah dengan cepat. Di sinilah situasi timbul ketika seseorang mengatakan sesuatu, dan yang lain, tanpa memeriksanya, mengambilnya dari laman web dan surat khabar mereka. Dalam beberapa kes, memerlukan masa yang lama untuk memutar bola ini dan membuktikan bahawa semuanya salah.

Tidak ada gunanya menjelaskan mengapa ini semua dilakukan. Di satu pihak, ada pihak yang hanya ingin mentertawakan keadaan itu, di pihak lain, mereka yang benar-benar tidak tahu bahawa mereka salah. Tempat yang terpisah, kira-kira di tengah, dihuni oleh orang-orang yang pasti mendapat keuntungan. Ini boleh menjadi kepentingan pengaruh pada berbagai tahap, termasuk politik. Kadang kala inilah tujuan menjana keuntungan. Contohnya, menyemai panik di pasaran saham dan melakukan urus niaga yang menguntungkan dengan sekuriti. Tetapi selalunya ini disebabkan oleh permusuhan terhadap seseorang (syarikat, produk, dll.) Untuk meremehkannya. Contoh mudah adalah "penurunan" dalam penilaian filem atau institusi yang tidak diingini oleh seseorang. Sudah tentu, ini memerlukan pasukan dari mereka yang akan pergi dan tidak suka (kadang-kadang bahkan bot), tetapi itu cerita lain.

Apa itu Pembelajaran Dalam?

Video promosi:

Baru-baru ini, istilah ini terdengar semakin kerap. Kadang-kadang dia tidak ada kaitan dengan kes itu dan keliru dengan perkara lain. Jadi produk perisian kelihatan lebih hebat.

Jangan berfikir bahawa konsep dan prinsip asas pembelajaran mesin muncul hanya beberapa tahun yang lalu. Sebenarnya, mereka berumur bertahun-tahun sehingga banyak dari kita bahkan tidak dilahirkan ketika itu. Prinsip asas sistem pembelajaran mendalam dan model matematik untuk karya mereka telah diketahui sejak 80-an abad yang lalu.

Pada masa itu, mereka tidak masuk akal kerana kekurangan satu komponen penting. Ia adalah kekuatan pengkomputeran yang tinggi. Hanya pada pertengahan tahun 2000-an, sistem muncul yang dapat membantu berfungsi ke arah ini dan memungkinkan untuk mengira semua maklumat yang diperlukan. Sekarang mesin telah berkembang lebih banyak dan beberapa sistem penglihatan mesin, persepsi suara dan beberapa yang lain berfungsi dengan cekap sehingga kadang-kadang bahkan melebihi kemampuan seseorang. Walaupun, mereka belum "dipenjara" ke arah yang bertanggung jawab, menjadikannya tambahan kemampuan manusia sambil tetap mengendalikannya.

Image
Image

Apa itu Deepfake? Bilakah Deepfake muncul?

Sangat mudah untuk meneka bahawa Deepfake adalah permainan kecil pada kata-kata yang berkaitan dengan Pembelajaran Dalam dan sangat palsu yang saya bicarakan di atas. Maksudnya, Deepfake harus mengambil palsu ke tahap baru dan memunggah seseorang dalam perniagaan yang sukar ini, memungkinkan mereka membuat konten palsu tanpa membuang tenaga.

Pertama sekali, palsu seperti video. Maksudnya, mana-mana orang boleh duduk di depan kamera, mengatakan sesuatu, dan wajahnya akan diganti dengan orang lain. Ia kelihatan menakutkan, kerana, sebenarnya, anda hanya perlu menangkap pergerakan asas seseorang dan mustahil untuk membezakan yang palsu. Mari lihat bagaimana semuanya bermula.

Rangkaian musuh generatif pertama dibuat oleh pelajar di Universiti Stanford. Ia berlaku pada tahun 2014, dan nama pelajar itu ialah Ian Goodfellow. Sebenarnya, dia mengadu dua jaringan saraf satu sama lain, salah satunya terlibat dalam generasi wajah manusia, dan yang kedua menganalisisnya dan bercakap serupa atau tidak. Oleh itu, mereka saling melatih dan satu hari rangkaian saraf kedua mula keliru dan mengambil gambar yang dihasilkan dengan nyata. Sistem yang lebih kompleks inilah yang melahirkan Deepfake.

Sekarang salah satu penyokong utama idea Deepfake adalah Hao Li. Dia tidak hanya melakukan ini, tetapi juga banyak yang lain. Untuk ini, dia berulang kali dianugerahkan pelbagai anugerah, termasuk yang tidak rasmi. Ngomong-ngomong, dia adalah salah seorang yang harus berterima kasih atas kemunculan animoji di iPhone X. Sekiranya berminat, anda boleh membiasakannya dengan lebih terperinci di laman webnya. Hari ini dia bukan topik perbincangan utama.

Kami hanya mengingatnya kerana di Forum Ekonomi Dunia di Davos dia menunjukkan aplikasinya, yang membolehkan anda mengganti wajah seseorang yang duduk di depan kamera dengan wajah lain. Secara khusus, dia menunjukkan bagaimana sistem ini berfungsi pada contoh wajah Leonardo DiCaprio, Will Smith dan orang terkenal lain.

Ia kelihatan sedikit menyeramkan. Di satu pihak, anda hanya dapat mengagumi teknologi moden yang membolehkan anda mengimbas wajah, mengubahnya menjadi wajah lain semasa dalam perjalanan dan menghasilkan gambar baru. Semua ini mengambil masa sesaat dan sistem juga tidak menjadi perlahan. Maksudnya, ia tidak hanya dapat memproses video yang sudah selesai dan mengganti wajah, tetapi juga untuk mengambil bahagian dalam watak seperti itu dalam beberapa jenis komunikasi video langsung.

Bahaya Deepfake. Bagaimana saya menukar wajah pada video?

Anda boleh bercakap seberapa banyak yang anda mahukan bahawa teknologi ini diperlukan, sangat keren dan anda tidak perlu memfitnah. Anda bahkan boleh melampau dan mula mengatakan bahawa ini adalah kedudukan oldfag yang sengit yang hanya takut akan semua yang baru, tetapi sebenarnya ada lebih banyak bahaya daripada faedah.

Dengan teknologi seperti itu, terutamanya jika ia adalah sumber terbuka, sesiapa sahaja dapat melayari dan merakam video apa pun. Tidak begitu buruk jika hanya memfitnah kehormatan dan martabat seseorang, lebih buruk lagi jika itu adalah pernyataan yang dibuat atas nama orang penting. Contohnya, dengan merakam video berdurasi 30-40 saat sahaja bagi Tim Cook, anda boleh menjatuhkan hampir keseluruhan bidang IT AS, yang diketuai oleh Apple. Pasaran saham akan dilanda begitu teruk sehingga akan menimbulkan rasa panik di kalangan pelabur. Akibatnya, beribu-ribu orang akan kehilangan berbilion dolar.

Sesiapa yang tidak menyukai cara menjana wang ini akan mengatakan bahawa inilah yang mereka perlukan, biarkan mereka pergi ke kilang. Tetapi di bawah senario paling menyedihkan, tidak akan ada tanaman selepas ini. Di samping itu, sangat penting bahawa kita mendapat orang yang menipu turun naik nilai sekuriti. Cukup sekadar membeli dan menjualnya tepat pada waktunya.

Keadaan boleh menjadi lebih buruk lagi sekiranya "pelawak" itu bersuara atas nama pemimpin sebuah negara besar. Sudah tentu, semuanya akan terungkap, tetapi selama ini anda boleh melakukan banyak perkara yang tidak menyenangkan. Dengan latar belakang ini, hanya mengganti wajah selebriti dengan pelakon dalam filem dewasa akan menjadi prank yang tidak bersalah.

Dengan teknologi seperti itu, perkara utama adalah mengimbas, dan kemudian ia adalah masalah teknologi. Dalam erti kata yang paling tepat
Dengan teknologi seperti itu, perkara utama adalah mengimbas, dan kemudian ia adalah masalah teknologi. Dalam erti kata yang paling tepat

Dengan teknologi seperti itu, perkara utama adalah mengimbas, dan kemudian ia adalah masalah teknologi. Dalam erti kata yang paling tepat.

Anda dapat membayangkan keadaan yang berlawanan, ketika orang yang sebenar mengatakan sesuatu, dan kemudian memberi jaminan kepada semua orang bahawa dia dijebak. Bagaimana untuk berada dalam keadaan ini juga tidak begitu jelas. Ini akan menimbulkan kekeliruan kepada suapan berita sehingga tidak mungkin untuk menyemaknya semula di sumber lain. Akibatnya, secara amnya tidak jelas apa yang benar dan apa yang salah di dunia ini. Sebuah gambar muncul dari filem mengenai masa depan yang suram, seperti Surrogates atau Terminator, di mana T-1000 memperkenalkan dirinya sebagai orang lain dan, antara lain, memanggil John Conor bagi pihak ibu angkatnya.

Sekarang saya tidak bercakap mengenai penyalahgunaan lain yang akan membolehkan pengumpulan bukti palsu. Dengan latar belakang ini, semua keseronokan mainan menjadi terlalu meragukan.

Bagaimana untuk mengesan Deepfake?

Masalahnya bukan bahawa sistem seperti itu harus dilarang, tetapi ini tidak lagi mungkin. Mereka sudah ada, dan pengembangan teknologi, termasuk membaca wajah, menyebabkan penampilan mereka dan penyebaran sumber terbuka. Walaupun kita membayangkan bahawa sistem dalam bentuknya sekarang tidak lagi wujud, kita mesti memahami bahawa sistem itu akan dibuat lagi. Mereka sekali lagi akan mengajar rangkaian saraf untuk bekerjasama dan hanya itu.

Setakat ini, tidak semuanya menakutkan, dan anda boleh mengenal pasti palsu dengan mata kasar. Gambarnya serupa, tetapi agak kasar. Selain itu, dia kadang-kadang mempunyai beberapa masalah pencampuran, terutama di bahagian tepi wajah. Tetapi tidak ada yang tetap dan sama sekali tidak sukar untuk mengembangkannya. Hao Li yang sama yakin bahawa ini akan memakan masa tidak lebih dari beberapa bulan, dan untuk membuat "topeng" yang tidak dapat dibezakan oleh komputer, ia akan memakan masa beberapa tahun lagi. Selepas itu tidak akan berpatah balik.

Di satu pihak, algoritma yang telah dibuat oleh YouTube dan Facebook dapat melindungi dari ini. By the way, yang terakhir bahkan membuka persaingan untuk pengembangan teknologi pengakuan - Cabaran Pengesanan Deepfake ("Tugas mengesan deepfake"). Dana hadiah untuk pertandingan ini adalah $ 10 juta. Pertandingan ini sudah berlangsung dan akan berakhir pada bulan Mac 2020. Anda masih mempunyai masa untuk mengambil bahagian.

Menggantikan wajah dalam video tidak lagi menjadi masalah
Menggantikan wajah dalam video tidak lagi menjadi masalah

Menggantikan wajah dalam video tidak lagi menjadi masalah.

Mungkin kemurahan hati ini disebabkan oleh video palsu dengan Mark Zuckerberg sendiri. Sekiranya kedua-dua perkara ini berkaitan, kemunculan pertandingan seperti itu tidak mengejutkan.

Sekiranya wajah yang diganti sama dengan yang asal, pasukan lawan yang diwakili oleh rangkaian saraf khas tidak akan berdaya. Dalam kes ini, dia harus melihat sedikit perbezaan dalam ekspresi wajah, pergerakan dan cara bercakap. Dalam kes orang terkenal, masalah seperti itu akan diselesaikan di peringkat perkhidmatan video, kerana YouTube yang sama tahu bagaimana Donald Trump konvensional bergerak. Apabila berkaitan dengan orang yang kurang dikenali, semakin sukar. Walaupun, ini juga dapat dibuktikan dengan meletakkannya di depan kamera dan melakukan perbualan santai sementara rangkaian saraf menganalisis pergerakannya. Ini akan menjadi seperti mempelajari cap jari, tetapi, seperti yang kita lihat, ini sekali lagi akan menimbulkan kesulitan yang tidak perlu.

Sistem pengesahan video jahitan ke dalam kamera juga dapat dielakkan. Anda dapat membuat kamera menandakan video yang ditangkap dan menjelaskan bahawa ia tidak difilemkan melalui aplikasi yang terpisah atau diproses dalam program khas. Tetapi bagaimana dengan video yang baru diproses? Contohnya, temu ramah yang diedit. Hasilnya, kami akan mendapat video di mana kunci asalnya tidak lagi ada.

Beberapa meme di akhir
Beberapa meme di akhir

Beberapa meme di akhir.

Bolehkah kita mengatakan bahawa kita sekarang telah membuat sketsa salah satu senario masa depan yang gelap? Secara amnya, ya. Sekiranya teknologi yang diciptakan untuk mencapai tujuan yang baik tidak terkawal, mereka dapat menghirup kesedihan. Sebenarnya, terdapat banyak pilihan untuk teknologi berbahaya seperti itu, tetapi kebanyakannya dilindungi. Contohnya, peleburan nuklear. Di sini kita berurusan dengan kod yang boleh diperolehi oleh sesiapa sahaja.

Tuliskan di komen bagaimana anda melihat perlindungan terhadap pemalsuan, dengan mempertimbangkan bahawa sistem pelindung dapat membuat topeng sama dengan wajah aslinya. Dan kerana mereka berada di video, anda bahkan tidak dapat menerapkan pengenalan kedalaman dan kelantangan pada mereka. Sebagai tambahan, mari kita anggap bahawa mana-mana kod dan kunci yang tertanam dalam gambar boleh diretas. Seperti yang mereka katakan, itu adalah untuk apa. Sekarang kita boleh membincangkan, semua perkenalan ada.

Artem Sutyagin

Disyorkan: