Искусственный интеллект и соблюдение прав человека — 4. Дискриминация и социально-экономические права

Может ли искусственный интеллект помогать одним людям угнетать или грабить других? Может, конечно, говорят специалисты Совету Европы. А уж вы решите, как будете пытаться с этим бороться.

В 2021 году в Европе и России обсуждается законодательная база для ИИ — чтобы «снизить риски» и «поддержать общественное доверие» к искусственному интеллекту. Институт Алана Тьюринга составил руководство для Совета Европы, где объясняется, чем использование искусственного интеллекта опасно для прав человека.

В предыдущих статьях мы писали, как учебник «Искусственный интеллект, права человека и верховенство закона» рассматривает возможные проблемы в судебной системе, а также угрозы тайне частной жизни и свободу собраний. В этом материале рассмотрим, как ИИ может способствовать дискриминации людей и угрожать их социально-экономическим правам.

Говоря о дискриминации, авторы документа подчеркивают, что дело не в искусственном интеллекте как таковом, а в том, что разрабатывают его люди, которые могут иметь разные взгляды, и что «стереотипные предубеждения и слепые пятна разработчиков систем» могут привести к тому, что созданные ими алгоритмы будут действовать в рамках этих предубеждений. Например, автоматически отфильтровывать кандидатов на работу по тем или иным формальным критериям.

Специалисты Института Алана Тьюринга не могли не сделать здесь реверанс в сторону BLM и полицейского насилия, упомянув о «петлях обратной связи» в полицейских системах прогнозирования, которые, экстраполируя прошлую статистику приводят к «непропорциональному подозрению в отношении членов маргинализированных групп и их непропорциональным арестам».

В качестве примера нарушения социально-экономических прав в руководстве приводится «дегуманизация трудовых отношений и методов управления» таксистов и сотрудников служб доставки, работа которых организуется через мобильные приложения. Поскольку их работа контролируется алгоритмами, им труднее добиваться справедливости, если им, например, не заплатили или недоплатили.

Та же проблема с автоматизацией госуслуг – с одной стороны использование ИИ может повысить эффективность их распределения. А с другой стороны «может оставить тех, кому отказано в пособиях, без возможности обратиться за помощью или вынужденными ориентироваться в сложных формах и прочих процессах без сострадательной помощи».

Также у работодателей появляется больше инструментов контроля. Они могут эффективнее мониторить поведение работников, бороться против профсоюзов и при этом исключить человеческое измерение из решений о найме, оплате труда и продвижении по службе.

«С этими проблемами в области прав человека перекликается концентрация власти, которую ИИ предоставляет своим наиболее влиятельным разработчикам и исполнителям в частном и государственном секторах, — подчеркивается в руководстве. — Правительства используют ИИ для ранжирования и упорядочения информации, а также для мониторинга и отслеживания граждан. Независимо от того, делается ли это компаниями или правительствами, ИИ можно использовать для формирования мнений и подавления инакомыслия».

В связи с этим Институт Тьюринга предлагает правительствам стремиться к минимизации рисков для граждан, максимально жестко контролировать ИИ и быть готовым отказаться от его использования при необходимости.