Человек, а не искусственный интеллект, должен быть критическим компонентом системы принятия решений

 
Критически важные решения по безопасности, в медицине и других сферах жизни должен принимать человек. Об этом заявил директор Центра науки, инноваций и образования по научным и инженерным вычислительным технологиям для задач с большими массивами данных Сколковского института науки и технологий Максим Федоров 8 декабря на Конгрессе молодых ученых.
 
Он рассказал о том, что в настоящий момент не решена проблема кибербезопасности, поэтому перекладывать процесс принятия критических решений на компьютерные системы нельзя.
Нет гарантий, что система не будет скомпрометирована, что решение будет принимать не алгоритм машинного обучения, а какой-то человек, который просто влез в эту систему и перехватил управление.
 
«Это базовая опасность этой концепции. Если мы переложим многие критически важные решения по безопасности по медицинскому вмешательству, по каким-то юридическим моментам на полностью автоматизированные системы, то тем самым мы уберем субъектность, мы уберем усталость, непрофессиональность и так далее. Но базовый момент - это перехват управления, поэтому все-таки мы в экспертных группах считаем, что человек должен оставаться критическим компонентом системы принятия любых важных решений»,  - сказал Максим Федоров.
 
Алгоритмы должны остаться инструментом, помогающим человеку, считает он.