ИИ научился предсказывать эскалацию уличных протестов по сообщениям в соцсетях

Татьяна Новак

Исследователи из Университета Южной Калифорнии (USC) создали машинный алгоритм, который по сообщениям в соцсетях прогнозирует, перерастёт ли акция протеста в столкновение. Об этом пишет Science Daily со ссылкой на исследование, опубликованное в журнале Nature.

Используя нейронную сеть, авторы проанализировали 18 миллионов твитов, посвящённых протестам в 2015 году, когда после избиения полицейскими умер 24-летний чернокожий парень и на улицы Балтимора и других американских городов вышли сотни возмущённых людей. В начале акции протеста имели мирный характер, однако за несколько дней переросли в стычки с полицией.

По словам исследователей, эскалация конфликта произошла , когда как сочувствующие протестующим, так и сторонники силового разгона акций уверились в собственной моральной правоте и увидели, что в соцсетях их поддерживают множество людей. «Люди видят множество других [пользователей в соцсетях], которые разделяют их ценности, и воспринимают это как консенсус. Наше исследование показывает, что это может иметь опасные последствия», — говорит один из авторов исследования Мортез Дехгани.

Твиты, затрагивающие моральные аспекты конфликта и безоговорочно поддерживающую одну из сторон, авторы называют «морализаторскими». Анализ показал, что в ходе развития конфликта увеличение количества арестов каждый час было прямо пропорционально увеличению «морализаторских» твитов, опубликованных в предыдущие часы. Фактически, количество таких твитов почти удвоилось в те дни, когда столкновения между протестующими и полицией достигли своей кульминации.

«Морализация и политическая поляризация усугубляются благодаря эффекту «эхо-камер» в соцсетях: люди объединяются со своими единомышленниками и дистанциируются от тех, кто не разделяет их убеждения», — пишут авторы. Они считают, что изучение этого феномена поможет службам службам экстренной помощи разрабатывать и реализовать эффективные стратегии противодействия эскалации конфликтов.

Загрузить еще