Врачу нужна профессиональная рутина, чтобы развиваться - врач


В Калужской области разрабатывается проект по анализу ИИ данных рентгеновских снимков и МРТ. Казалось бы, это помощь для врача, которая снимает с него рутинные обязанности изучать эти снимки. Он может что-то не увидеть, а ИИ может подсказать и обратить его внимание на какие-то участки, потенциально важные для наблюдения. 

Декларируется, что это облегчение рутинных обязанностей врача, однако на самом деле врач должен сам погружаться в эту рутину, она ему необходима. Потому что таким образом он будет нарабатывать свои нейронные сети, развивать свой мозг,  свой опыт и профессионализм, он сможет видеть все важное самостоятельно.

А если у него будет этот помощник - это бывает неплохо, когда помощники есть - но у него не будет работать его интеллектуальный орган - мозг, не будет наращиваться навык распознавания снимков, то этот интеллектуальный орган атрофируется, потому что не будет использоваться.

В принципе, это один из законов анатомии. Если орган не работает, то он атрофируется. Почему у тех людей, которые сидят на инсулине со своим инсулином все очень плохо? Потому, что организм видит, что инсулин есть и смысла его производить самостоятельно нет. То же самое и с витаминами, гормонами, добавками и чем-то еще. То, что ты даешь извне в готовом виде, вместо того, чтобы организм что-то синтезировал, приводит к утрате функций.
В деятельности врача будет то же самое.

Любая система, которая помогает человеку, хороша только тогда, когда сам врач заинтересован в развитии своих навыков, и использует ее осознанно как вспомогательное средство. Есть риск, что врач эту систему будет использовать в качестве основного средства (мне некогда, я доверюсь программе, которая все подскажет), то он и навык свой не разовьет и увеличит вероятность ошибки.

Дальше, скажем так, через поколение, когда ему придётся передавать опыт. А что он может передать, если у него опыта нет? Опыт будет у машины. И ещё неизвестно, насколько это правильный опыт.

Показательна история, когда анализировали, ошибку ИИ, который выдавал на основании видео с веб-камер в метро показатели времени час-пик. Все думали, что ИИ анализирует количество людей в толпе, плотность толпы. И это работало в будние дни, но не работало в выходные. В выходные часа пик не было, а ИИ говорил что он есть. 

Потом обнаружили, что ИИ не считал плотность толпы, а просто по показателю времени на электронном табло, когда наступало 13:00 сообщал о часе-пик. И со снимками рентгеновскими и МРТ может быть такая же ситуация.

Кроме того, на врача возложено бремя ответственности за принятие решения, то есть он должен взвесить все риски. Хорошо, когда есть какая-то система, некая карта, протоколы, а которые помогают ему видеть картину более ясно. Может быть, справочник, какой-то протокол с ветвлениями, что можно выбрать такой путь лечения, можно выбрать такой путь лечения. 

Но человек должен это понимать, а работа искусственного интеллекта для него непрозрачна. Человек не понимает, как, по каким критериям искусственный интеллект что-либо оценивает.

Система для него должна быть прозрачна. То есть, он должен иметь возможность получить переводи на человеческий язык, почему ИИ принял именно такое решение. Так что если это какая-то непрозрачная система, искусственно интеллект, такой "чёрный ящик", то врач не поймёт логики. Он может начать полагаться слепо и потеряет понимание почему так. Опять же не будет развития навыка. Не будет понимания того, почему так. И это просто обкрадывание человеческого потенциала.

Понятное дело, что врач, который пользуется подобной системой, обкрадывает сам себя из-за своей лени. Конкретный специалист, решив положиться на подобные системы, делает свою лень социально опасным деянием. Это неприемлемо.