В недавнем исследовании американских учёных утверждается, что искусственный интеллект может идентифицировать преступников с помощью программы распознавания лиц. Однако данная работа вызвала споры о том, насколько в действительности объективны подобные технологии, когда дело касается расы подозреваемого. Metro разбирается в данном вопросе.

Статья "Модель глубокой нейронной сети для прогнозирования преступности с использованием обработки изображений" сотрудников Гаррисбергского университета, США, напоминает сюжет фильма Стивена Спилберга "Особое мнение". В киноленте  2002 года подозреваемых задерживают ещё до того, как они совершат преступление, на основе видений провидцев. Американские учёные утверждают: они придумали аналогичную технологию, которая на основе автоматизированной программы распознавания лиц способна предсказать, будет ли кто-то нарушать закон.

– С 80-процентной точностью и без расовой предвзятости программа может спрогнозировать, является ли кто-то преступником, основываясь исключительно на изображении его лица, – говорится в исследовании.

Технология кажется многообещающей, однако она уже вызвала споры не только среди экспертов в области искусственного интеллекта, но и юристов. В результате более 450 специалистов из разных областей и организаций (в том числе Google, Microsoft, Массачусетского технологического института, Нью-Йоркского университета, Гарварда и др.) подписали публичное письмо с просьбой не публиковать данное исследование. По мнению экспертов, описанная в нём технология является расистской и может усилить дискриминацию со стороны полиции.

– Не существует способа разработать систему, которая могла бы предсказать "преступность" и которая не была бы расово предвзятой, потому что данные уголовного правосудия по своей сути являются расистскими, – объяснила Одри Бёрд, одна из авторов этого письма.

В свою очередь издательство Springer Nature опубликовал в своих соцсетях пост, что исследование опубликовано не будет. Кроме того, Гаррисбергский университет также удалил со своего сайта анонс исследования. В сообщении отмечается, что  "сотрудники обновляют документ".

Предупреждение преступности с помощью математических и других аналитических методов не является чем-то принципиально новым: подобные технологии уже применялись в некоторых регионах США, хотя и с отрицательными результатами.

По мнению Эндрю Гатри Фергюсона, профессора права в Вашингтонском колледже права при Американском университете, США находятся в конце первого этапа предсказательной полиции.

– Мы провели серию экспериментов, большинство из которых провалилось. В результате высшие инстанции отказались от использования этой технологии, – сообщил он Metro.

Впрочем, даже если предупредительная система не будет работать, то у полиции есть множество других методов анализа большого объёма данных: видеонаблюдение, автоматизированное считывание номерных знаков, технология "Интернета вещей" и другие.


Компьютер тоже ошибается

В начале 2020 года произошёл скандальный арест, произведённый с использованием искусственного интеллекта.

Полиция Детройта арестовала афроамериканца Роберта Уильямса на глазах у его жены и двух дочерей после того, как алгоритм программы распознавания лиц определил его как человека, совершившего кражу. Задержанный провёл в участке около 30 часов, однако за это время полицейские так и не смогли подтвердить его причастность. Проблема заключалась в том, что технология распознавания лиц не может отличить темнокожих людей. Единственное реальное сходство Роберта Уильямса с настоящим преступником было в одинаковом цвете кожи.

Поэтому позже полиция признала, что задержала не того человека и отпустила Уильямса.

Должно быть, компьютер ошибся, - сказал один из полицейских.

Сам Уильямс также прокомментировал свой арест.

– Как объяснить двум маленьким девочкам, что компьютер ошибся, но полиция все равно его послушала? - спросил он у представителя Американского союза защиты гражданских свобод.


Эндрю Гатри Фергюсон, профессор права в Вашингтонском колледже права при Американском университете и автор книги "The Rise of Big Data Policing: Surveillance, Race and the Future of Law Enforcement"

Что такое предиктивная полиция и как она работает?
– В Соединенных Штатах существуют две основные формы предсказательной полиции. Программы первого типа определяют районы с высоким риском совершения преступления, беря за основу данные о уже совершённых правонарушениях в определённой местности. После в район прогнозируемого преступления направляется полиция. В период ее расцвета подобную предсказательную модель использовали более 60 юрисдикций. Результаты технологии не впечатляют, однако в некоторых городах с ее помощью повысилась эффективность патрулирования районов.
Программы второго типа определяют, кто может совершить преступление или, наоборот, стать жертвой. Такое прогнозирование основано на анализе различных факторов риска, например, прошлые аресты или модели виктимизации. Одно время крупные города, такие как Лос-Анджелес и Чикаго, использовали личностные прогнозы для выявления людей с высоким риском вовлеченности в преступление. Полицейские устанавливали с ними контакт и осуществляли наблюдение и социальный контроль. Позже оба города признали, что технология прогнозирования личности была несовершенна и расово предвзята. После всесторонней проверки прогнозирование преступлений на основе личности перестали использовать в обоих городах.

В новом исследовании утверждается, что с помощью искусственного интеллекта можно предсказать, кто станет преступником.
– Идея о том, что определить будущего преступника можно по фотографии, является научной бредом. Есть очень много вопросов о механизме алгоритма, этике и тестировании системы, и тот факт, что подобное исследование проводилось, вызывает тревогу. Такая система никогда не будет использоваться в США для арестов и, надеюсь, больше не будет лежать в основе научных исследований. Арест лишь на основании внешности без совершенного преступления противоречил бы конституции.

Некоторые эксперты отмечают, что технология прогнозирования преступности носит расистский характер.
– Подобные технологии хороши только в том случае, если они основаны на тех данных и социальном контексте, в котором они работают. Если общество расово предвзято, то и данные, и результаты предсказаний будут такими же. К сожалению, во многих американских городах полиция с предубеждением относится к цветным общинам. Это приводит к большему числу арестов, осуждениям и, следовательно, к набору данных, который говорит не в пользу афроамериканцев.