Безопасный ИИ — достижим ли?

Тема безопасности так называемого искусственного интеллекта (ИИ) беспокоит всех. Межпарламентская ассамблея приняла модельный закон «О технологиях искусственного интеллекта», который предлагается использовать для создания национальных законов.

В нем, в частности, говорится, что технологии, которые несут неприемлемый риск, должны запрещаться на любой стадии как абсолютная угроза. Другой вопрос в том, что расценивать как неприемлемый риск?

Приведем пример. Ко Дню космонавтики Министерство просвещения РФ выложило сгенерированную нейросетью сусальную картинку, на которой человек в костюме, похожем на космический скафандр, держит на руках девочку.

То, что «изобретенный» программой костюм нелеп, а опущенное прозрачное забрало бессмысленно — это еще полбеды, но в попытке добавить картинке «реалистичности», нейросеть расцарапала бутафорский шлем «космонавта».

Такое совершенно невозможно себе представить в реальной жизни для любого ведомства, заботящегося о своем имидже, но Минпросвещения и на имидж Роскосмоса, и на имидж страны в глазах подрастающего поколения, очевидно, наплевать. Да и сама идея показать на День космонавтики вместо реальных героев, покорителей космоса, вымышленного персонажа, дикая.

Реальный художник вряд ли стал рисовать такое, а нейросеть не испытывает никаких чувств, сомнений, сожалений и не заботится о достоверности деталей. Но ведь и тот, кто ей это заказал, а потом опубликовал, продемонстрировал не большее понимание и чувство адекватности.

А ведь на этот рисунок, по идее, должны смотреть дети. Впитывая как эмоциональный посыл картинки, так и эстетический. Чему они научатся и что впитают, с учётом, что многие наверняка воспримут эту картинку как фотографию. И, значит, получат вредный с воспитательной точки зрения урок.

То есть дело-то в первую очередь не в нейросетях, которые принято теперь называть ИИ, а в том, кто и как использует результаты их работы. И в том, несет ли этот кто-то хоть какую-то ответственность за эти результаты.

Ключ к безопасности любых технологий — это вопрос персональной ответственности за результат тех, кто эти технологии применяет. Если эта ответственность не будет прописана в регулирующих работу ИИ законах, безопасности достичь не удастся.