Нещодавнє дослідження Медичного коледжу імені Елсона С. Флойда Університету штату Вашингтон надає ключову інформацію про можливі перешкоди для штучного інтелекту (ШІ) під час екстрених медичних ситуацій. В опублікованому дослідженні PLOS One автори досліджували можливості програми OpenAI ChatGPT для визначення серцевого ризику симульованих пацієнтів у разі болю в грудях.

Непослідовні висновки

Результати вказують на проблематичний рівень мінливості у висновках The ChatGPT, коли вводяться ті самі дані пацієнтів. За словами доктора Томаса Хестона, провідного дослідника, ChatGPT не працює узгоджено. Показуючи ті самі дані, ChatGPT даватиме низький ризик уперше, проміжний ризик наступного разу та навіть, часом, рейтинг високого ризику.

Ця прогалина є дуже серйозною в критичних випадках, що загрожують життю, оскільки в цих випадках суттєві та об’єктивні оцінки мають велике значення для того, щоб медичний працівник вжив точні та відповідні дії. Пацієнти можуть відчувати біль у грудях через різні захворювання. Тому лікар повинен швидко оглянути пацієнта і вчасно провести лікування, щоб надати йому належну допомогу.

Дослідження також виявило, що продуктивність ChatGPT була слабкою порівняно з традиційними методами, які використовували лікарі для оцінки серцевого ризику пацієнтів. Сьогодні лікарі використовують метод двостороннього контрольного списку, який оцінює пацієнтів приблизно за протоколами TIMI та HEART, які є індикаторами ступеня захворювання серця пацієнта.

Однак, якщо ввести такі змінні, як ті, що відображаються у шкалах TIMI та HEART, було досягнуто більшої розбіжності з оцінками ChatGPT, причому рівень згоди становив 45% та 48% для відповідних шкал. Припустімо, що це розмаїття можна знайти в процесі прийняття рішень штучним інтелектом у медичних випадках високого ризику. У цьому випадку це змушує поставити під сумнів надійність штучного інтелекту, оскільки саме ці ситуації з високими ставками залежать від послідовних і точних рішень.

Вивчення обмежень і потенціалу ШІ в охороні здоров’я

Доктор Хестон підкреслив здатність штучного інтелекту покращувати підтримку охорони здоров’я та наголосив на необхідності проведення ретельного дослідження, щоб виключити його недоліки. ШІ може бути необхідним інструментом, але ми рухаємося швидше, ніж ми розуміємо. Тому ми повинні провести багато досліджень, особливо в поширених клінічних ситуаціях.

Очевидно, результати дослідження підтвердили важливість людей-медсестер у цих умовах, хоча технологія AI також показала деякі переваги. Візьмемо приклад екстреної ситуації, під час якої спеціалісти з цифрової медицини зможуть переглянути повний медичний висновок пацієнта, таким чином використовуючи можливості системи, щоб надавати лише доречну інформацію з найбільшим ступенем ефективності. Крім того, ШІ може як брати участь у постановці диференціальних діагнозів, так і обдумувати складні випадки з лікарями. Це допоможе лікарям ефективніше проходити процес діагностики.

Тим не менш, за словами доктора Хестона, все ще залишаються деякі проблеми.

«Це може дуже добре допомогти вам продумати диференціальну діагностику чогось, чого ви не знаєте, і це, ймовірно, одна з його найбільших сильних сторін. Я маю на увазі, що ви можете запитати його про п’ять найпоширеніших діагнозів і докази, що стоять за кожним із них, і тому він може дуже добре допомогти вам продумати проблему, але він просто не може дати прямої відповіді».

Там, де штучний інтелект постійно розвивається, дуже важливо глибоко оцінювати його ефективність, можливо, особливо в ситуаціях високого ризику, як-от охорона здоров’я, щоб убезпечити пацієнтів як таких і оптимізувати прийняття медичних рішень.