Искусственный интеллект пока плохо зарекомендовал себя в военной области - военный аналитик


Скриншот из игры Metal Gear Solid

Простейшие человеческие приёмы легко вводят в заблуждение системы искусственного интеллекта, пишет бывший военный аналитик Пентагона Пол Шарре (Paul Scharre). Об этом 20 января сообщает 3Dnews.

По данным издания, к выходу в тираж готовится книга бывшего военного аналитика Пентагона Пола Шарре (Paul Scharre) под названием Four Battlegrounds: Power in the Age of Artificial Intelligence (Четыре поля боя: Военная сила в эпоху Искусственного интеллекта). Автор приводит случаи сомнительного поведения роботизированных платформ, управляемых искусственным интеллектом (ИИ), в ходе их обучения и имитации боевой работы.

Ссылаясь на причастных к испытаниям специалистов, утверждается, что результаты "применения искусственного интеллекта", мягко говоря, не радуют. ИИ очень легко ввести в заблуждение простейшими приёмами.

Так, один из боевых роботов, разработанных DARPA, в течение недели проходил обучение, чтобы распознавать движущихся бойцов. При этом на седьмой день солдаты придумали тестовую игру - они пытались незаметно подобраться к устройству с расстояния около 300 метров и дотронуться до него. В результате все восемь военнослужащих, принявших участие в эксперименте, решили задачу и робот их не обнаружил. Двое морпехов добрались до робота, выполняя кувырки, которых система раньше не видела. Один морпех замаскировался еловыми ветками и в таком виде приблизился к роботу. Еще двое солдат добрались до робота, спрятавшись под картонные коробки. 

Шарре пишет, что «искусственным интеллектом» это может называться с большой натяжкой. Интеллектуальные системы не способны делать никакие интеллектуальные выводы сверх полученных в ходе обучения данных. «ИИ полезен лишь настолько, насколько полезны данные, которые мы ему предоставляем», — пишет автор.

Комментарий РВС

Попытка использовать искусственный интеллект в военной области натыкается на проблему контроля за его действиями. Когда на ИИ будет возложен такой объем задач, который люди-операторы не смогут проверять, катастрофические ошибки будут неминуемы. Время на принятие необходимого решения во многих военных областях очень мало и возникает огромный соблазн переложить эту задачу на "искусственный интеллект".

К чему это приведет - уже достаточно понятно. Например, по поведению беспилотных машин, которые за секунду до неминуемого столкновения перекладывают ответственность на водителя-"пассажира". Именно поэтому в США не допустили, чтобы роботы принимали решение на устранение опасных преступников.