В Интернете то и дело появляются комментарии недовольных юзеров, обвиняющих искусственный интеллект (ИИ) в дискриминации.

Одним из последних случаев стала жалоба венгерки (ник@DoraVargha в Twitter), которая заметила, что Google-переводчик пишет "она" к тем занятиям, где не нужна серьёзная квалификация, – к примеру, есть "она уборщица", но нет "он уборщик". То же самое и с фразами "она моет посуду" или "она ассистент". А вот если требовалось перевести фразу, в которой фигурировали более престижные занятия – профессор, политик, то переводчик определял их как мужские.

Недавнее исследование учёных из американского Университета Карнеги – Меллона и Университета Джорджа Вашингтона подтвердило эту несправедливую закономерность. Исследователи выясняли, что искусственный интеллект действительно тот ещё расист и сексист, но винить его в этом не стоит – машина автоматически изучает расовые и гендерные предубеждения на больших данных.

– С точки зрения алгоритма, предубеждения не имеют эмоциональной окраски. Для машины это чёткая статистика, которую можно использовать как факт, – рассказал Metro Джеймс Зу, профессор науки о данных из Стэнфордского университета. – Эту же информацию ИИ использует для прогнозирования и обработки любой другой информации.

Исследователи выяснили, что искусственный интеллект  мужские образы делает более профессиональными, а женские – сексуализирует, сосредотачиваясь на их внешности. Если алгоритм попросить написать портрет  хорошего человека, то он, скорее всего, изобразит светлокожего человека, а если плохого – то темнокожего. Первый случай – это сексизм, а второй – расизм. И бороться с ними необходимо.

– Всё должно начинаться с программистов и их этики, – говорит Metro Лонда Шибингер, историк в Стэнфордском университете. – Они первые, кто имеет доступ к ИИ. И именно они должны прилагать усилия для преодоления этих проблем.


Эксперт
Лонда Шибингер, историк в Стэнфордском университете

- Почему так вышло, что ИИ  сексист и расист?
- Во всём виноваты история и общество, а не конкретные люди, создающие алгоритмы. Сексизм и расизм встроены в язык и в любые пласты информации, на которых обучается машина.

- Как это может сказаться на пользователях?
- К сожалению, неравенство из прошлого будет тянуться и в будущем. Например, в Интернете упоминания мужских местоимений встречаются гораздо чаще, чем женские. Большинство переводчиков по умолчанию переводят как "он сказал" или "он сделал", что укореняет сексизм на уровне пользователей.

- Были ли попытки исправить это?
- Оказывается, Google хотел исправить проблему переводчиков уже в 2012 году, но не смог. Выпустили лишь скромное исправление, причём в 2021 году. Но нужно отметить, что некоторые вещи в искусственном интеллекте очень сложно исправить, если машина уже чему-то научилась и работает на такой огромной платформе, как Google. Ей, как и людям. тоже сложно переучиваться. даниэль касильяс


Четыре примера расизма и сексизма в искусственном интеллекте

Онлайн-переводчики

Когда Google Translate переводит новостные статьи, написанные на испанском языке или английском, то фразы о действиях женщин часто меняются на "он сказал" или "он написал".

Фотоаппараты

Некоторые камеры, например Nikon, могут предупредить пользователя, если человек на снимке мигает. Людей азиатского происхождения программа считает "постоянно мигающими".

Системы анализа текста

Некоторые системы анализа текста, которыми пользуются писатели, считают, что европейские и американские имена благозвучны, а африканские – нет.

Голосовые помощники

В недавнем докладе ЮНЕСКО присутствовала критика в адрес техногигантов в связи с тем, что большинство голосовых помощников имеют женские имена и ведут себя "как подчинённые".