Институт Алана Тьюринга в своем руководстве «Искусственный интеллект, права человека и верховенство закона: учебник» описал, как широкое использование искусственного интеллекта (ИИ) может угрожать тайне частной жизни.
В предыдущем материале мы уже объясняли, что институт выпустил это руководство как дополнение к «Технико-экономическому обоснованию» использования ИИ для Специального комитета Совета Европы по искусственному интеллекту (CAHAI).
В предисловии документа объясняется, что Европа вынуждена что-то делать для поддержки уже подорванного общественного доверия к всё более активно внедряемым технологиям ИИ, а соответственно нужно принимать законы, которые этически ограничат эти технологии. Для этого принимающих эти законы надо хотя бы немного ознакомить с возможными проблемами, а особенно с нарушениями прав человека, которые могут возникнуть и уже возникают при применении ИИ.
Первым пунктом авторы разобрали, что может произойти при принятии автоматических судебных решений. Вторым пунктом в документе значится «тайна частной жизни».
«Искусственный интеллект может получить доступ к огромным объемам данных о людях и обрабатывать их с невероятной скоростью. ИИ может делать прогнозы о поведении, состоянии ума и личности человека, воспринимая информацию, которая не обязательно считается личной или частной, такую как выражение лица, частота сердечных сокращений, физическое местоположение и другие, казалось бы, обыденные или общедоступные данные», — отмечают авторы.
Таким образом, человек уже не может никак контролировать, какую информацию о себе предоставляет системам, создатели и владельцы которых совершенно не обязательно настроены к нему доброжелательно.
«Это может привести к вторжению в личную жизнь человека, а также может давать так называемые «эффект наблюдателя» (panopticon effect, от англ. panopticon — круглая тюрьма с помещением для смотрителя в центре — прим. пер.), заставляя человека изменять свое поведение при подозрении, что оно наблюдается или анализируется», — подчеркивается в документе.
В качестве примера подобного применения ИИ говорится об анализе биометрических данных кандидата при устройстве на работу и сравнение их с образцом. Но в реальности слежка более разнообразна. Уже возможно, например, распознавание лиц в масках. Хотя не безошибочное, что создает дополнительные юридические проблемы.
Кроме того, современную систему распознавания образов пока что можно легко обмануть так называемыми «типографскими атаками» — если поверх требуемого предмета поместить какую-то надпись. В таком случае алгоритмы системы распознают и обнаружат надпись, а не сам исходный предмет. Это действует с фотографиями, но, теоретически возможны и варианты «обмана радара» в реальном мире.
Уязвимость уже известна, и специалисты работают над дальнейшим совершенствованием ИИ, занимающихся распознаванием изображений. Кроме того, никто же не мешает использовать сразу несколько систем распознавания. Некоторые уже применяются для опознания детей.
Вспомним пресловутый проект Сбербанка «Ладошки» для оплаты школьного питания, запущенный в 2015 году. В нем у детей собираются биометрические данные, которые сложно подделать – инфракрасное фото вен ладони. И большинство родителей в шести сотнях школ, где проект уже действует, даже не возражают.
Также напомним, что цифровизаторы России активно говорят о тотальной слежке за поведением учителей и учеников на уроках. Так, в школах Пермского края и некоторых других регионов уже устанавливаются камеры слежения, способные распознавать эмоции детей.
Очевидна также угроза праву на свободу выражения мнений, свободу ассоциаций и собраний. Она также упоминается в руководстве Института Тьюринга. И дело не только в распознавании лиц. Об этом — в следующем материале.