Штучний інтелект як зростаючу сферу застосування в секторі охорони здоров’я сприймається як прихильно, так і сумнівно. Громадські партнерства та значні кошти установ викликають великі надії на технологію; однак професіонали та пацієнти все ще сумніваються, чи технологія вже достатньо зріла, чи вона може загрожувати здоров’ю пацієнтів.

Проблеми суспільного сприйняття ШІ в охороні здоров’я

Будучи чудовим творцем змін, багато ІТ-гігантів і компаній починають включати генеративний ШІ в програми, пов’язані зі здоров’ям. Google і Highmark Health — дві агенції, які розробляють унікальні інструменти для персоналізації процесу прийому пацієнтів.

Amazon AWS призначений для представлення методів з використанням генеративного штучного інтелекту та аналізу медичної бази даних. Так само Microsoft Azure бере активну участь у розбудові систем, які є посередником у спілкуванні між пацієнтами та постачальниками медичних продуктів. Такі підприємства, як Ambience Healthcare і Nabla, прагнуть значно розширити роль штучного інтелекту, яка буде врахована в клінічних умовах.

Звіт Deloitte є лише одним із опитувань, які показують, що лише 53% американців розглядають можливість використання генеративного ШІ для покращення послуг охорони здоров’я, незважаючи на нещодавні прориви та технологічний прогрес.

Той факт, що решта 47% американців все ще не впевнені в генеративному штучному інтелекті як інструменті зниження витрат і покращення доступності, свідчить про значні прогалини на ринку.

Технічні труднощі та питання етики

Надійність генеративного штучного інтелекту в охороні здоров’я є актуальною темою, оскільки дослідження показують його непередбачуваність і недоліки. Дослідження JAMA Pediatrics показало високий рівень помилок у діагностиці педіатричних захворювань лікарями червоної команди ChatGPT OpenAI, а дослідження в медичному центрі Beth Israel Deaconess продемонстрували подібні результати з GPT.

У медичній адміністративній функції тест MedAlign виявив недоліки моделі в повсякденній діяльності. Це дало моделі 35% відсотка відмов.

Ці питання є місяцями, які вважають, що може виникнути можливість порушення цих прав. Дослідження, проведені в галузі медицини Стенфордського університету, пов’язані зі здоров’ям, показали, що нова технологія ШІ може посилити суспільні стереотипи, які можуть значно погіршити нерівність у здоров’ї.

Конфіденційність даних, ризики для безпеки та зміна законів, пов’язаних із застосуванням ШІ в охороні здоров’я, означають, що його використання складається з кількох рівнів складності.

Такі експерти, як Ендрю Борковскі з VA Sunshine Healthcare Network і Ян Еггер з Університету Дуйсбурга-Ессена, визнають, що слід запровадити надійні механізми перевірки та регулювання нових генеративних технологій ШІ.

Збалансування інновацій ШІ та нагляду за охороною здоров’я

Вони підтримують штучний інтелект як допоміжний засіб, а не окреме рішення, отже, вони запроваджують, що за кожною програмою пильно спостерігають досвідчені медичні працівники.

І після цього… кадрові агентства Всесвітньої організації охорони здоров’я намагаються вдосконалити рекомендації, згідно з якими дослідження та перевірка додатків штучного інтелекту для охорони здоров’я мають бути суворими та залучати достатню кількість людей для певного рівня нагляду.

Ця рекомендація спрямована на нагляд за процесом впровадження технологій штучного інтелекту з метою підтримки їх безпеки та користі для споживачів. Рекомендованими заходами є прозорість, незалежний аудит і різноманітність зацікавлених сторін-учасників.

Сектор охорони здоров’я стикається з проблемою на роздоріжжі, де ШІ відіграє більшу роль. Хоча визнається, що штучний інтелект має потенціал змінити спосіб надання медичної допомоги, існують деякі технічні, етичні та нормативні проблеми, які все ще стикаються з використанням ШІ в медицині під час його розгортання.