Искусственный интеллект, который люди не смогут контролировать

Журнал Unite.ai  рассказал об интересном исследовательском эксперименте. Международная группа ученых решила проверить, действительно ли искусственный разум однажды сможет развиться до такой степени, что сможет уйти из-под контроля человека.

Команда ученых, в которую вошли ученые Центра людей и машин, принадлежащего Институту развития человека Макса Планка начала проводить соответствующие теоретические расчеты.

Речь, конечно, идет не об обычных и повсеместно используемых программных продуктах и технологических системах. Серьезные опасения вызывает  Суперинтеллектуальная система искусственного интеллекта.

Ученые опасаются, что такая система ИИ выйдет на более высокую ступень развития, чем люди. Она сможет не только самостоятельно обучаться, но и получать доступ ко всем существующим данным и очень быстро их обрабатывать.

Каким  образом можно попытаться контролировать сверхразумный ИИ?

Сейчас в  этом вопросе существует две основных подхода. Во-первых, люди могут ограничить возможности сверхразумного ИИ, ограничив ему доступ к некоторым источникам данных или даже ко всему Интернету. Но надо понимать, что это резко ограничит потенциал ИИ.

Во-вторых, считается, что сверхразумный ИИ можно контролировать, только позволяя работать на пользу человечеству. Считается, что это можно сделать, запрограммировав в систему ИИ этические принципы. 

Так вот команда ученых решила проверить возможность применения этих двух подходов. Исследователи разработали теоретический алгоритм сдерживания, который не позволяет сверхразумному ИИ причинять вред людям в каких бы то ни было обстоятельствах.

Они попытались создать имитационную модель ИИ, которая бы позволила обнаружить любое опасное поведение системы. Но оказалось, что такую модель разработать невозможно.

«Если разложить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказал бы ИИ не разрушать мир, может непреднамеренно остановить свои собственные операции. И когда это произойдет, вы не поймете, продолжает ли алгоритм сдерживания анализировать угрозу или он перестал сдерживать опасные действия ИИ. По сути, это делает алгоритм сдерживания непригодным для использования», - говорит директор Центра людей и машин Ияд Рахван.