Alphabet разработала фильтр для оскорбительных комментариев

Татьяна Новак

Компания Jigsaw, принадлежащая Alphabet, 22 февраля запустила новый инструмент, который поможет модераторам выявлять оскорбительные комментарии на сайтах, а пользователям устанавливать уровень «токсичности» комментариев, которые они хотят видеть. Об этом пишет ВВС.

По словам разработчиков, программа под названием Perspective пока еще дорабатывается, однако уже может находить «токсичные» комментарии на английском языке эффективнее, чем люди-модераторы или фильтры по ключевым словам. Для этого алгоритм обучили на сотне тысяч комментариев, которые были помечены людьми-рецензентами как оскорбительные.

«Новостные издания хотят поощрять взаимодействие и дискуссии вокруг своих материалов, однако проверка миллионов комментариев, чтобы найти те, которые содержат троллинг или оскорбления, требует много денег, времени и трудовых ресурсов. Поэтому многие сайты закрыли комментарии вообще. Однако это не то решение, которого они хотят. Мы считаем, что наша технология может им помочь», — говорит директор компании Jigsaw Джаред Коэн.

Perspective будет только находить комментарии, а удалять их или нет, будет решать администрация сайта. Новая функция будет полезна и для читателей: они смогут самостоятельно устанавливать уровень «токсичности» комментариев, которые готовы читать. Кроме того, Коэн надеется, что эта технология заставит людей контролировать собственное поведение в интернете, так как любой пользователь сможет проверить, насколько оскорбительно то, что он пишет.

Инструмент Perspective позволяет читателям установить уровень "токсичности" комментариев, которые они хотят видеть. Чтобы увидеть самые "токсичные", нужно сдвинуть ползунок вправо.

В будущем алгоритм планируют усовершенствовать, чтобы он мог также определять комментарии с другими нарушениями политики сайтов — например, с переходом на личности или отклонением от темы статьи.

Согласно недавнему исследованию Стэнфордских учёных, нередко обычные пользователи начинают вести себя в интернет-дискуссии как тролли, если в ней уже есть несколько агрессивных комментариев. Таким образом, всего один человек, который сгоряча оставил резкий комментарий, может запустить «спираль негатива».

Алгоритм уже протестировали на сайтах The New York Times, Wikipedia, The Economist и The Guardian. Теперь разработчики готовы предоставить его другим новостным сайтам, а также социальным платформам Facebook и Twitter.

Загрузить еще