Искусственный интеллект и соблюдение прав человека — 3. Право на собрания

В Европе обсуждают, какие законы надо принимать, чтобы широко использовать ИИ. Для этого Институт Алана Тьюринга составил руководство, в котором описал, чем использование искусственного интеллекта опасно для прав человека.

В предыдущих статьях мы писали, как учебник «Искусственный интеллект, права человека и верховенство закона» рассматривает возможные проблемы в судебной системе, а также угрозы тайне частной жизни. В этом материале рассмотрим, как ИИ угрожает праву на свободу выражения мнений, ассоциаций и собраний.

Первая проблема стала очевидна за время пандемии COVID-19, а особенно — во время протестов в США и других странах. Участников этих протестов легко опознают правоохранительные органы, но и их, в свою очередь, могут опознать протестующие и даже начать угрожать их семьям.

«Системы распознавания лиц в реальном времени могут препятствовать осуществлению гражданами своих свобод собраний и ассоциаций, лишая их защиты анонимности и оказывая сдерживающее воздействие на социальную солидарность и демократическое участие [в общественной жизни]. Биометрическое наблюдение с использованием искусственного интеллекта также может лишить граждан их права на информированное и явное согласие на сбор персональных данных», — говорится в документе.

Как уже говорилось при обсуждении права на частную жизнь, возникает ощущение, что за тобой следят и подслушивают… причем не слишком далекое от реальности. Но это не единственная проблема. Упрощается также возможность манипуляций.

Авторы руководства отмечают последние тенденции в работе соцсетей – показ только интересного конкретному читателю. Это создает искаженную картину мира само по себе. Но, кроме того, алгоритм может дополнительно фильтровать сообщения, признанные нежелательными. Это было очень хорошо видно, опять-таки по США, точнее по последним американским выборам.

И самая, пожалуй, здесь опасное — появившаяся возможность крайне убедительно лгать и подделывать реальность, так что невооруженный взгляд уже не отличит. Да и не всякий специалист определит сходу.

«Искусственный интеллект также используется для создания очень реалистичных, но поддельных видео, фальшивых аккаунтов и другого искусственного контента, который может мешать человеку формировать обоснованное мнение, основанное на фактах», — отмечается в руководстве.

Пока что большинство «фейковых новостей» можно проверить. Правда беспокоит то, насколько люди зачастую готовы доверять источникам — многие исследователи отмечают, как массово и быстро распространяются теперь по миру необоснованные слухи. Кстати, первоисточник цитируемого нами документа проверить легко — он опубликован на официальном портале Совета Европы.

В следующий же раз поговорим об опасности дискриминации с помощью ИИ отдельных групп людей.