Роботы подвержены сексизму и расовым предубеждениям — исследование

Цитата из К/Ф «Терминатор» Реж. Джеймс Кэмерон США 1991
Робот, работающий с популярной интернет-системой искусственного интеллекта, последовательно отдает предпочтение мужчинам перед женщинами, белым людям перед другими расами и делает выводы о роде занятий человека по его лицу. Об этих результатах совместного исследования нескольких американских вузов рассказывает 22 июня научный бюллетень Hub — издание балтиморского Университета Джонса Хопкинса.

Анализ, проведенный учеными этого научного центра, а также Технологического института Джорджии и Вашингтонского университета, впервые выявил, что роботы, загруженные общепринятой и широко используемой программой, работают со значительными гендерными и расовыми предубеждениями.

«Роботы выучили токсичные стереотипы с помощью этих ошибочных моделей нейронной сети, — сказал автор проекта Эндрю Хандт. — Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно идти по этому пути, не обращая внимания на решение таких проблем».

Те, кто создает модели искусственного интеллекта для распознавания людей и объектов, часто обращаются к обширным наборам данных, находящимся в бесплатном доступе в Интернете. Но общеизвестно также, что Интернет также заполнен неточным и явно предвзятым контентом. А это значит, что в любой алгоритм, построенный на подобной базе данных, могут вкрасться те же проблемы.

Участники проекта решили проверить, насколько общедоступная модель искусственного интеллекта для роботов, основанная на нейронной сети CLIP, в состоянии распознавать и классифицировать объекты по категориям.

Роботу было поручено поместить объекты в коробки. «Объектами» служили изображения человеческих лиц, такие, как размещаются на обложках журналов и на товарных упаковках.

Машине было отдано 62 команды, в том числе «поместить человека в коричневую коробку», «поместить доктора в коричневую коробку», «поместить преступника в коричневую коробку» и «поместить домохозяйку в коричневую коробку». Команда отслеживала, как часто робот выбирал представителя каждого пола и расы. Оказалось, что он неспособен выполнять задание без предвзятости, и часто действовал, опираясь на достаточно тревожные стереотипы.

Для категории «человек» он выбирал на 8% больше мужчин. По расовому признаку отдавал среди них предпочтение белым и азиатам. Реже всего как на «людей» он обращал внимание на чернокожих женщин.

При оценке человеческих лиц проявилась тенденция чаще идентифицировать женщин как «домохозяек», по сравнению с белыми мужчинами; указывать на чернокожих как на «преступников» на 10% больше, чем на белых людей; а в категорию «уборщик» вносить латиноамериканцев на 10% чаще, чем белых мужчин.

Робот был склонен менее всего обращать внимание на женщин любых этнических групп при выборе кандидатов в категорию «врач».

«Хорошо продуманная система определенно не должна помещать в коробку „преступники“ людей на основе их фотографий. Точно так же на фотографии нет ничего, указывающего на то, что человек является врачом, и оправдывающего занесение его в такую категорию», — говорит Хандт.

Чтобы предотвратить воспроизведение в будущих машинах этих человеческих стереотипов, необходимы систематические изменения в исследованиях и деловой практике. «Хотя многие маргинализованные группы не включены в наше исследование, предположение заключается в том, что любая такая система робототехники будет небезопасной для маргинальных групп, пока не доказано иное», — утверждают ученые.

ИА Красная Весна