Ученые разработали алгоритм предсказания атак троллей в Instagram

Ученые разработали алгоритм предсказания атак троллей в Instagram
Евгений Стелькин

Ученые из Колорадского университета разработали алгоритм поиска и предсказания случаев кибермоббинга (намеренного оскорбления и запугивания пользователей) в социальной сети Instagram.

При помощи машинного обучения и методов языкового анализа специалисты смогли добиться 77% точности при поиске атак троллей и 60% точности при их предсказании.

Авторы проанализировали 2218 постов в социальной сети, разбив их на группы по проявления киберагрессии (один агрессивный комментарий) или кибермоббинга (два или более негативных или оскорбительных комментария). В выборках при помощи стандартных методов лингвистического анализа изучалось содержание комментариев и их агрессивный окрас.

Оказалось, что в “агрессивных” комментариях чаще всего использовались слова, которые относились к таким темам, как “религия”, “смерть”, “наркотики”, “сексуальность”, “злость”, “грусть” и тому подобное.

Одним из необычных результатов исследования стал тот факт, что комментарии с большим количеством нецензурной лексики, как правило, не были агрессивными, чаще всего они были связаны с политикой или спортом, а в некоторых случаях авторы квалифицировали их как “дружескую болтовню”.

На основании этих данных ученые создали набор признаков, по которым обучали программу-классификатор.

Точность определения программой возможных атак кибертроллей составила 77%. Далее ученые пытались предсказать то, вызовет ли фотография негативный отклик в комментариях. Для этого использовалось машинное обучение, а в качестве признаков – содержание фотографии и профиль пользователя. Точность предсказания составила 60%. В дальнейшем ученые планируют повысить точность работы алгоритма.

Транспортировка грузов на фурах Лето – 2015. Модные женские часы Проблема гаджетомании у детей Что такое профнастил? Кондиционер для дома. Выбираем правильно.

Лента новостей