Недавнее исследование Медицинского колледжа Элсона С. Флойда при Университете штата Вашингтон предоставляет ключевую информацию о возможных препятствиях для искусственного интеллекта (ИИ) во время неотложных медицинских ситуаций. В опубликованном исследовании PLOS One авторы изучили возможности программы OpenAI ChatGPT для принятия решения о сердечном риске у симулированных пациентов в случае боли в груди.

Непоследовательные выводы

Результаты указывают на проблемный уровень вариативности выводов ChatGPT при вводе одних и тех же данных о пациентах. По словам доктора Томаса Хестона, ведущего исследователя, ChatGPT не работает последовательно. Показывая одни и те же данные, ChatGPT в первый раз дает низкий риск, в следующий раз — средний риск, а иногда даже — высокий уровень риска.

Этот пробел очень серьезен в критических случаях, угрожающих жизни, потому что в этих случаях существенные и объективные оценки имеют большое значение для медицинского работника, чтобы он мог предпринять точные и соответствующие действия. Пациенты могут испытывать боль в груди из-за различных заболеваний. Следовательно, врачу необходимо быстро осмотреть пациента и провести своевременное лечение, чтобы оказать пациенту должный уход.

Исследование также показало, что эффективность ChatGPT была слабой по сравнению с традиционными методами, используемыми врачами для оценки сердечного риска пациентов. Сегодня метод двустороннего контрольного списка используется врачами, которые оценивают пациентов примерно по протоколам TIMI и HEART, которые являются индикаторами степени заболевания сердечно-сосудистых пациентов.

Однако при предложении в качестве входных данных таких переменных, как те, которые отображаются в шкалах TIMI и HEART, было достигнуто большее несогласие с оценками ChatGPT: уровень согласия составил 45% и 48% для соответствующих шкал. Предположим, что это разнообразие можно обнаружить в принятии решений ИИ в медицинских случаях высокого риска. В этом случае это заставляет усомниться в надежности ИИ, поскольку именно такие ситуации с высокими ставками зависят от последовательных и точных решений.

Устранение ограничений и потенциала ИИ в здравоохранении

Доктор Хестон отметил способность ИИ усилить поддержку здравоохранения и подчеркнул необходимость проведения тщательного исследования, чтобы исключить присущие ему недостатки. ИИ может быть необходимым инструментом, но мы движемся быстрее, чем понимаем. Поэтому нам следует провести много исследований, особенно в часто встречающихся клинических ситуациях.

Очевидно, результаты исследований подтвердили важность медсестер в этих условиях, хотя технология искусственного интеллекта также показала некоторые преимущества. Возьмем, к примеру, чрезвычайную ситуацию, во время которой специалисты по цифровому здравоохранению смогут просмотреть полный медицинский отчет пациента, используя таким образом возможности системы, чтобы предлагать только соответствующую информацию с наибольшей степенью эффективности. Кроме того, ИИ может как участвовать в постановке дифференциальных диагнозов, так и обсуждать сложные случаи с врачами. Это поможет врачам более эффективно продолжить диагностический процесс.

Тем не менее, по словам доктора Хестона, некоторые проблемы все еще остаются.

«Он может очень хорошо помочь вам продумать дифференциальный диагноз чего-то, чего вы не знаете, и это, вероятно, одна из его самых сильных сторон. Я имею в виду, что вы можете запросить у него пять основных диагнозов и доказательства, лежащие в основе каждого из них, и поэтому он может очень хорошо помочь вам обдумать проблему, но он просто не может дать прямого ответа».

Там, где ИИ постоянно развивается, крайне важно глубоко оценить его эффективность, возможно, особенно в ситуациях высокого риска, таких как здравоохранение, чтобы обезопасить пациентов как таковых и оптимизировать принятие медицинских решений.