Журналисты обвинили алгоритмы прогнозирования преступлений в США в расизме

Татьяна Новак

Алгоритм прогнозирования преступлений в штате Флорида в 80% случаях ошибочно вносит чернокожих подозреваемых в категорию «высокого риска». С белыми подозреваемыми это происходит в два раза реже. Такое исследование опубликовали журналисты портала ProPublica.

В исследовании речь идёт о «показателе оценки риска» (risk assessment score) — параметре, который якобы отображает вероятность повторения преступления конкретным подозреваемым. Алгоритмы для его вычисления в основном разрабатывают частные компании, которые не разглашают, как и по каким критериям происходит оценка. Внедрение такой оценки на разных этапах судебного процесса поощряет Национальный институт Министерства юстиции исправительных учреждений США. В некоторых штатах результаты уже предоставляются судьям перед вынесением приговора. Результаты такой оценки судьи могут использовать для определения строгости приговора либо для обоснования решения об амнистии.

Журналисты ProPublica изучили дела более 7000 подозреваемых, арестованных с 2013 года до 2014 года в округе Броуард (штат Флорида). В этом округе показатель оценки риска для подозреваемого вычисляет программа от некоммерческой компании Northpointe. По результатам исследования, только 20% подозреваемых, для которых программа определила высокий риск совершения преступлений, действительно совершили его в течение двух лет после выставления риска. Причём программа в 2 раза чаще ошибочно определяет этот показатель для чернокожих, чем для белых.

Показатель оценки риска для чернокожих
Показатель оценки риска для белых

Журналисты пришли к выводу, что программа так или иначе учитывает расу подозреваемых. В компании Northpointe заявили, что несогласны с результатами исследования.

По словам специалистки в области больших данных Кэтти О’Нил, подобные алгоритмы подталкивают судей к лёгким решениям, которым сложно сопротивляться. «Если людям присуждают баллы и кто-то уже получил низкий балл, человеческая природа побуждает признать его виновным, даже если эта оценка просто означает, что он родился в бедном районе», — говорит О’Нил.

Например, во Флориде используют алгоритм, который делает выводы на основании ответов подозреваемого на 137 вопросов. Среди них такие вопросы, как «Был ли осуждён кто-либо из Ваших родителей?» и «Сколько Ваших друзей/знакомых принимают наркотики?». Оценка риска на основании таких вопросов приводит к дальнейшей стигматизации людей, которые и так живут за чертой бедности в криминогенной обстановке. «Это подтверждает широко распространённое впечатление, что система правосудия направлена против бедных», — писал об этом профессор права Мичиганского университета Сонжа Старр.

Загрузить еще