Может ли искусственный интеллект принимать решения в медицине?

12.05.2022

Искусственный интеллект (ИИ) в медицине имеет особое значение, здесь применение  ИИ незаменимо для врача и пациента, с одной стороны, значительно расширяя возможности современной медицины, но, с другой стороны порождая и множество проблем – начиная от сохранения конфиденциальности данных и заканчивая статусом решений ИИ в медицине….

 Применение искусственного интеллекта проводится в следующих направлениях: осуществляется анализ медицинских изображений и цифровая диагностика с использованием технологий компьютерного зрения; применяются программы доврачебной диагностики и программной аналитики для профилактики и лечения состояний, заболеваний, осложнений, существуют также цифровые медицинские платформы для автоматизации проведения клинических исследований и сбора данных. Использование сложной математики и инновационных, передовых методов машинного обучения дает возможность применять эти данные для разработки персонализированных алгоритмов клинической помощи для более эффективного лечения пациентов, снижения токсичности и улучшения результатов. Все эти и многие другие достижения с использованием ИИ значительно облегчают деятельность врачей и служат на благо пациента. Примером использования ИИ в медицине может служить применение искусственных нейронных сетей для определения степени тяжести воспалительного процесса в толстой кишке при язвенном колите (ЯК), так как эндоскопическая оценка тяжести заболевания при ЯК является ключевым элементом в определении ответа на терапевтическое лечение, но ее использование в клинической практике ограничено потребностью в опытных специалистах. Зарубежными авторами было установлено, что применение искусственных нейронных сетей ко всем фотографиям и видео колоноскопии имело аналогичную точность для выявления заболевания средней и тяжелой степени, что и оценка опытного эндоскописта. По данным Takenaka и др., используя только эндоскопические изображения, искусственные нейронные сети могут надежно и точно оценить эндоскопическую и гистологическую активность заболевания при ЯК.

Однако, при включении экспертных систем в постановку диагноза возник правовой вопрос: кто будет нести ответственность, если диагноз окажется неправильным? До сих пор суды исходили из того, что медицинские экспертные системы играют такую же роль, как медицинские учебники и справочники; терапевты обязаны понять ход рассуждений, лежащий в основе любого решения системы, и использовать свое собственное суждение для принятия решения о том, нужно ли следовать рекомендациям системы. Поэтому при проектировании медицинских экспертных систем в виде интеллектуальных агентов действия этих систем следует рассматривать не как непосредственно воздействующие на пациента, а как влияющие на поведение терапевта. А если экспертные системы когда-то будут надежно вырабатывать более точные диагнозы по сравнению с людьми, врачи могут стать юридически ответственными, если они не используют рекомендации экспертной системы.

С другой стороны, люди не доверяют искусственному интеллекту, что сильно тормозит его внедрение. Разработанный IBM проект Watson for Oncology способен рекомендовать варианты лечения для 13 разновидностей рака — в некоторых случаях решение алгоритма на 93% совпадало с рекомендациями экспертов-онкологов. Но врачи оказались не готовы делегировать решение вопросов жизни и смерти машине. Вновь остро встал вопрос ответственности за потенциальную ошибку, допущенную искусственным интеллектом. К тому же, проявилась проблема выборки данных, на которых обучали Watson, — иностранные госпитали жаловались, что программа ориентирована на американские врачебные практики и методы лечения. В результате некоторые внедрившие технологию больницы отказались от нее, сославшись на высокие затраты и неудовлетворительные результаты.

Вопрос остается открытым. Так, как мы сегодня «видим» ИИ – он может рассматриваться только как технический помощник человека, как инструмент, но отнюдь не как субъект принятия решений или даже эксперт…

Евгения Авлас