В Европе активно обсуждают, как законодательно оформлять искусственный интеллект. Институт Алана Тьюринга выпустил дополнение к «Технико-экономическому обоснованию» использования искусственного интеллекта (ИИ) для Специального комитета Совета Европы по искусственному интеллекту (CAHAI). Оно называется «Искусственный интеллект, права человека и верховенство закона: учебник» и посвящено проблеме установки этических ограничений для ИИ.
В предисловии к документу объясняется цель его создания – вынужденная необходимость поддержания уже подорванного общественного доверия к всё более активно внедряемым технологиям ИИ.
Никогда еще не было более ясно видно, особенно после того, как этот год с COVID выявил нашу всё большую зависимость от цифровых технологий, что нам необходимо поддерживать общественное доверие к внедрению ИИ. Для этого нам необходимо, осознавая возможности, снизить риски, связанные с применением ИИ. Это влечет за собой необходимость четкого стандарта ответственности и этического поведения».
Отмечается, что некие этические принципы по ИИ уже были приняты в 2019 году – в формате рекомендаций в рамках европейской Организации экономического сотрудничества и развития и в виде «необязательных принципов» для стран «Большой двадцатки». А вот в 2020 году стали думать, как их технически внедрять, а уже для этого решили изучить реальные опасности для общества и на основе этого потом предполагают писать новые законы. А этот «учебник» предполагается в помощь политикам и юристам, которые не очень хорошо понимают, что такое ИИ и как он влияет на мир.
Пропустим технические детали, которые уведут нас в сторону, и посмотрим, риск для каких сфер жизни от ИИ видят составители документа.
Они говорят о «растущем риске для заветных прав на неприкосновенность частной жизни, самовыражение, собрания». Отдельно оговариваются расширившиеся возможности сбора данных о человеке, применение таргетированной рекламы и манипулирование поведения, «которые увеличили доходы крупных технологических платформ, одновременно способствуя глобальным кризисам социального недоверия, распространению дезинформации и повышению уровня культурной и политической поляризации». Кроме того, говорится о цифровом слежении со стороны правоохранительных органов.
Авторы учебника оговаривают, что ИИ нужен и применяется в разных сферах человеческой жизни, чтобы самому человеку не надо было решать «утомительные, опасные, неприятные и сложные задачи», но сам по себе является «„социально-техническим“ – представляет собой широкий спектр сложных технологий, которые работают в человеческом контексте и предназначены для достижения определенных человеком целей». А соответственно, злонамеренно настроенные люди могут закладывать туда нежелательные ценности.
Причем характер действий ИИ «труднее определить, чем когда это делают люди». И из-за сложности алгоритмов, и из-за того, что их редко выкладывают в открытый доступ – коммерческая тайна.
Далее авторы начинают говорить о более конкретных проблемах. И первой называют издержки применения ИИ в судебной системе. С одной стороны, предполагается, что его применение снизит произвол судей. А с другой стороны, непонятно как выявлять ошибку, если она произойдет, и как подавать апелляцию. «Сложность и непрозрачность систем искусственного интеллекта могут препятствовать праву на справедливое судебное разбирательство, включая право на равенство сторон, в котором сторона, в отношении которой выносится алгоритмическое решение, может адекватно изучить и оспорить свои доводы», – пишут авторы.
Поскольку суды пока всё-таки не ведутся искусственным интеллектом, приведем реальные и конкретные примеры программных ошибок, приводивших к ложным задержаниям и судам.
Один пример из России, от ноября 2020 года. По сообщению журнала «Собеседник», в одном из столичных супермаркетов двое охранников и менеджер задержали москвича Александра, которого автоматизированная система безопасности распознала как серийного вора. Якобы тот за три недели вынес из ретейла элитный алкоголь на сумму 78 тысяч рублей.
В итоге всё закончилось относительно благополучно – после нескольких часов угроз от охраны и полиции и потратив 15 тыс. рублей на адвоката, москвич смог отбиться от обвинений. Но ведь не всегда может так повезти.
Весной 2021 года в Британии произошел крупный скандал с почтовым алгоритмом компании Horizon, который применялся для учета всех продаж годами и годами вел неверные расчеты, в результате чего работники, которые якобы допускали недостачу, залезали в долги, попадали в тюрьму или даже кончали жизнь самоубийством. Количество пострадавших от ошибки в коде исчисляется сотнями.
А вот теперь представим себе, если и судебные решения будут отданы на откуп ИИ.
Искусственный интеллект и соблюдение прав человека — 2. Тайна частной жизни.