Научно-фантастические книги, фильмы и телешоу отдали привилегию предсказывать будущее не картам Таро, а технологиям. Впрочем, несколько десятилетий назад в возможность компьютера или робота смоделировать будущее поверили бы не больше, чем в способности гадалки. Это казалось маловозможным и даже утопичным.

Однако человечество удивило само себя – на этот раз в хорошем смысле. Сегодня существует огромное количество технологий, которые рассказывают нам, будет ли завтра дождь, прогнозируют рост или спад цен акций компаний, оценивают риск развития у пациентов заболеваний и даже предсказывают, будет ли совершено преступление. Эти вычисления возможны, потому что нейросети учатся на гигантском объеме данных. Человеку с таким объёмом не справиться, а вот искусственному интеллекту эта задачка – раз плюнуть.

Цифра

90% – с такой точностью модель, созданная учеными Чикагского университета, будет определять место преступления. Как минимум будет известен район, как максимум – квартал.

"Для обучения искусственного интеллекта мы берем огромные базы данных, в которых зафиксированы события или любая другая информация. Когда нейросеть обучается, мы начинаем сверять ее прогнозы с реальностью", – рассказывает Metro доцент кафедры медицины Чикагского университета Ишану Чаттопадхьяй.

Предсказание будущего с помощью искусственного интеллекта уже давно осуществляется на практике... и нередко втайне от нас. Карисса Велиз, профессор из Института этики и искусственного интеллекта при Оксфордском университете, недавно выпустила статью, в которой исследовала феномен обработки личной информации ради создания прогнозов. Выяснилось, что в повседневной жизни десятки алгоритмов делают прогнозы о нас, а мы даже не подозреваем! Информация, которую они используют, может содержаться в самых разных уголках Интернета: от названий нашей почты до "слитых" в Сеть адресов из служб доставки.

Детали

Искусственный интеллект, который предсказывает преступления:

Социологи и специалисты по обработке данных из Чикагского университета разработали новый алгоритм, который предсказывает преступность, изучая временные и географические закономерности на основе общедоступных данных о преступлениях. Один из разработчиков алгоритма, Ишану Чаттопадхьяй, объяснил Metro, как это работает:

"Нейросеть, которую мы разработали, видит взаимосвязи между преступлениями в разных частях города, которые на первый взгляд неподвластны пониманию человека. Ну или они становятся доступными каким-нибудь детективам только через время. А его иногда просто нельзя терять, потому что преступления могут происходить одно за другим. Нейросети смогут помочь предотвратить серии правонарушений, потому что им видно глубинные связи".
"Кроме того, в будущем возникнет риск использования нейросетей, способных на прогнозирование, нашими потенциальными работодателями, – объясняет Metro Велиз. – Это может привести к дискриминации. Например, компания, которая собирается вас нанять, предложит ваше резюме и тестовое задание на анализ нейросети. И она решит, что вы не подходите".

Что касается искусственного интеллекта, который предсказывает вероятность преступления в том или ином районе, то можно также утверждать: его постоянное использование может привести к дискриминации. Неблагополучные районы будут патрулироваться чаще, за людьми будут следить пристальнее – это может спровоцировать новые волны гнева и преступлений, которые будут совершаться просто назло. В районах, которые считались благополучными, тоже появится риск преступлений. На их территории у некоторых людей может появиться ощущение мнимой вседозволенности, что также приведет к преступлениям.

"Эти технологии – это данность, не добро и не зло, – подытоживает Велиз. – В конце концов лишь от человека зависит, будем ли мы пользоваться ими на благо".

Четыре вопроса об этике

Отвечает Карисса Велиз, профессор Института этики и искусственного интеллекта при Оксфордском университете:

Как работают алгоритмы, предсказывающие будущее?

- Будущее – это результат того, что произошло в прошлом. Нейросети анализируют огромные пласты уже существующей информации и делают прогнозы.

Действительно ли эти алгоритмы могут нарушить приватность?

- Иногда да. Искусственный интеллект может установить риск развития рака у человека. Но для того, чтобы он смог это сделать, ему нужен доступ к истории пациента. А это личная информация. Пока что никто не может гарантировать, что она не может куда-то "утечь".

Как прогнозы повлияют на человека?

- Хуже всего это повлияет на подозреваемых в преступлениях. Если относиться к человеку как к преступнику до того, как он совершил преступление, это лишит его права на презумпцию невиновности и негативно повлияет на его поведение.

Есть ли у этой проблемы решение?

- Прежде чем подпускать нейросеть к анализу данных, нужно убедиться, что конфиденциальную информацию можно как-то защитить. И конечно, как и в случае с нейросудами, которые набирают популярность в Латинской Америке, последнее решение должно быть за человеком.