Военнослужащие США используют системы искусственного интеллекта (ИИ) для обнаружения подделок, которые могут представлять угрозу национальной безопасности. Об этом 11 июля сообщает Fox News.
Пентагон сообщил, что технологии ИИ упростили, как никогда, создание подделок, реалистично имитирующих голос и образ реального человека. В контексте национальной безопасности такие подделки могут применяться для получения от военного персонала конфиденциальной информации противниками США на международном уровне. Ценность для разведки представляют голоса и образы рядовых и офицеров самого высокого или самого низкого уровня.
Минобороны США заключило контракт с компанией DeepMedia. По данным организации, алгоритмы обнаружения обучались на миллионах как реальных, так и поддельных образов на 50 различных языках и научились с точностью до 99,5% определять, является ли образ реальным или каким-то способом подвергся манипуляциям со стороны ИИ.
Комментарий РВС
Системы ИИ уже широко применяются в целях разведки и успешно собирают данные из соцсетей, фото из мессенджеров, голосовые сообщения и т. д. В этой сфере, разумеется, уже есть и дезинформация, созданная с помощью технологий deepfake.
Объемы дезинформации, конечно, будут расти, поэтому достаточно логично прогонять собранные данные через ИИ фильтры, отличающие подделку. Противник в данном случае показывает собственные приоритеты.
Остается надеяться, что наши военные или гражданские структуры смогут подобрать технологические аналоги для эффективного противодействия усилиям врага.