Журнал "Системы Безопасности" № 4‘2020

о повышении качества услуг здравоохранения за счет использования технологий ИИ. Потен- циально внедрение искусственного интеллекта в медицине открывает большие возможности для контроля качества и автоматизации уча- стков производственных процессов, которые достаточно типизированы и состоят из повторе- ния рутинных операций. Чаще всего такими процессами являются скрининги и профилакти- ческие исследования, когда однотипная стан- дартизированная диагностика выполняется на больших объемах пациентов. Так как это услов- но здоровые люди, то при массовом анализе значительная часть исследований представляет собой норму и, как следствие, идеальный вари- ант для автоматизации. Глобальные исследования подтверждают дан- ную точку зрения. Согласно опросу Европейско- го общества рентгенорадиологии (European Society of Radiology) 1 , большинство врачей отдает предпочтение использованию ИИ для скрининга онкологических и сердечно-сосуди- стых заболеваний (рис. 2). Кто несет ответственность? Что касается разделения ответственности врача и искусственного интеллекта, то к этому вопросу медицинские работники относятся скептически. Многие из них считают, что само по себе заключение без валидации врачом пациент вряд ли может воспринять. Другое дело – разделение ответственности между врачом и разработчиком ИИ-решения. Ведь просто разработать алгоритм и передать его в медицину не получится. Придется нести ответственность за работу этого алгоритма и в длительной перспективе. Кроме того, на всех этапах разработки решения для здравоохранения обязательно участие вра- чей, причем как специалистов в сфере клини- ческой дисциплины, которой адресовано кон- кретное решение, так и специалистов по орга- низации здравоохранения. Качество валидации ИИ для диагностики Основная проблема, с которой сталкиваются разработчики ИИ для медицины, – это качество и стандартизация исходных данных. На рис. 3 показаны результаты обобщающей аналитиче- ской публикации 2 , посвященной анализу дата- сетов и качеству алгоритмов на их основе, раз- работанных для здравоохранения за несколько предыдущих лет. Обзору уже три года, но ситуация, к сожалению, не меняется. В большинстве случаев разработчики берут отдельно взятый датасет, чаще всего принадле- жащий одной больнице, тренируют на нем алгоритм и выпускают в свет. Если цель – полу- чить инвестиции, то такой подход позволит это сделать. Но если нужно создать продукт, кото- рый будет массово работать в системе здраво- охранения в стране и за рубежом, то подход неприемлем, так как результаты работы ИИ обычно оказываются невоспроизводимыми на других датасетах, диагностических устройствах, другой популяции и т.д. То есть нет валидации алгоритмов на независимых данных при разра- ботке, а значит предлагаемый ИИ не сможет работать "за пределами" известного ему дата- сета. Далее в игру вступает доказательная медицина. Если не показать врачу метрики диагностиче- ской точности алгоритма, не назвать значения площади под кривой, чувствительности, специ- фичности, то команда может быть сколько угодно профессиональной, а инвестиции огромными, но никто в медицинском сообще- стве не будет принимать это во внимание. В медицине ИИ должен пройти научную оценку, клинические испытания, наконец – получить регистрационное свидетельство в качестве медицинского изделия. Только после этого можно рассчитывать на массовое применение алгоритма. Причем такая ситуация носит гло- бальный характер, в каждой развитой стране есть своя система сертификации изделий и средств для здравоохранения. Также результаты работы алгоритма обязатель- но должны быть воспроизводимы и объясни- мы. Недостаточно сказать врачу, что на одном снимке есть патология, а на другом ее нет. Недостаточно просто показать те области, кото- рые вызвали у алгоритма интерес и сомнение, необходимо объяснить, почему он принял то или иное решение. Мы сталкивались с известными ситуациями, когда алгоритм учили на компьютерных томо- граммах буквально находить белое на черном, и в итоге он не понимал разницу между очагом в легком и содержимым кишечника (рис. 4). Когда врач видит подобную картинку, он боль- ше не будет работать с этим алгоритмом, и здесь дело не в его косности или консерватиз- ме, а в том, что это элементарные вещи: сначала научить алгоритм находить легкие на изобра- жении, понимать их анатомические границы, а уже потом искать очаги. Типичные грубые ошибки происходят и тогда, когда ищут просто какие-то образования без привязки к анатоми- ческим ориентирам, и очагом заболевания может оказаться все что угодно, вплоть до застежки на нижнем белье. www.secuteck.ru август – сентябрь 2020 МАШИННОЕ ЗРЕНИЕ В И Д Е О Н А Б Л Ю Д Е Н И Е И В И Д Е О А Н А Л И Т И К А 115 Рис. 3. Анализ датасетов и качество алгоритмов на их основе (на основании 516 статей, опубликованных в 2018 г.) 2 Рис. 4. Задача для ИИ – поиск очагов в легких по КТ К огда речь идет о цифровизации в медицине, очень часто говорят о консервативности врачей, сопротивлении врачебного сообщества и т.д. Но так считают те, кто не понимает, каким путем здесь форми- руются решения, как внедряются любые технологии, будь то таблетка, новый вид скальпеля или цифровой продукт 2 Kim DW, Jang HY, Kim KW, Shin Y, Park SH. Design Characteristics of Studies Reporting the Performance of Artificial Intelligence Algorithms for Diagnostic Analysis of Medical Images: Results from Recently Published Papers. Korean J Radiol. 2019 Mar;20(3):405-410. https://doi.org/10.3348/kjr.2019.0025.

RkJQdWJsaXNoZXIy Mzk4NzYw