Kecerdasan Buatan Telah Belajar Melihat Troll Rangkaian - Pandangan Alternatif

Kecerdasan Buatan Telah Belajar Melihat Troll Rangkaian - Pandangan Alternatif
Kecerdasan Buatan Telah Belajar Melihat Troll Rangkaian - Pandangan Alternatif

Video: Kecerdasan Buatan Telah Belajar Melihat Troll Rangkaian - Pandangan Alternatif

Video: Kecerdasan Buatan Telah Belajar Melihat Troll Rangkaian - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Artificial Intelligence membaca komen agresif dari pengguna Reddit dan memahami bagaimana orang yang membenci orang lain bercakap. Lebih sukar untuk menipunya daripada moderator bot biasa.

Internet dihuni oleh troll gemuk dan kurus dan hanya orang-orang kasar yang tidak masuk ke dalam poket mereka untuk kata-kata. Menyederhanakan Internet secara manual adalah kerja yang sukar dan tidak berterima kasih. Bot diprogram untuk mencari kata-kata dari "senarai terlarang" lebih baik, tetapi mereka tidak dapat mengetahui kapan komen kaustik dengan kata-kata kod adalah lelucon yang tidak berbahaya, dan kapan itu adalah serangan lisan yang jahat.

Penyelidik di Kanada telah mengajarkan kecerdasan buatan untuk membezakan lelucon kasar dari lelucon yang menyakitkan dan apa yang disebut oleh ahli sosiologi sebagai "ucapan kebencian."

Dana Wormsley, salah satu pencipta AI, menyatakan bahawa "ucapan kebencian" sukar untuk diformalkan. Sesungguhnya, kata-kata yang menyinggung secara formal dapat digunakan baik dengan ironi dan makna yang lebih ringan; hanya sebilangan teks yang mengandungi kata-kata seperti itu menghasut dan mengaibkan dengan serius. Kami tidak akan memberikan contoh, kerana organisasi pemerintah yang mengatur Internet di Rusia belum memiliki kecerdasan buatan).

Jaringan saraf dilatih mengenai contoh pernyataan anggota masyarakat yang terkenal dengan permusuhan mereka terhadap kumpulan penduduk yang berlainan. Rangkaian neural dipelajari dari catatan laman Reddit - platform di mana anda boleh menemui pelbagai kumpulan minat, dari aktivis hak sivil hingga misoginis radikal. Teks yang dimuat naik ke sistem paling sering menghina orang Amerika Afrika, orang dan wanita yang berlebihan berat badan.

Rangkaian saraf yang dilatih dengan cara ini memberikan lebih sedikit positif palsu daripada program yang menentukan "ucapan benci" dengan kata kunci. Sistem ini menangkap rasisme di mana tidak ada kata-kata penunjuk sama sekali. Tetapi di sebalik prestasi yang baik, pencipta moderator AI tidak pasti bahawa pengembangannya akan digunakan secara meluas. Setakat ini, dia berjaya menemui ucapan benci di Reddit, tetapi adakah dia akan dapat melakukan perkara yang sama di Facebook dan platform lain tidak diketahui. Tambahan pula, sistem ini tidak sempurna, kadang-kadang kehilangan banyak pernyataan rasis yang nampaknya tidak sopan yang tidak akan terlepas oleh mesin pencari kata kunci. Satu-satunya yang dapat membezakan penghinaan daripada jenaka yang tidak bersalah sementara orang itu tetap ada.

Disyorkan: