AI jako rosnący obszar zastosowań w służbie zdrowia ma swoje obie strony pozytywnie i wątpliwie. Duże nadzieje pokładane są w partnerstwach publicznych i znacznych funduszach instytucji; jednakże specjaliści i pacjenci nadal mają wątpliwości, czy technologia jest już wystarczająco dojrzała i czy może zagrozić zdrowiu pacjenta.

Wyzwania związane z akceptacją społeczną AI w opiece zdrowotnej

Będąc wspaniałym twórcą zmian, wielu gigantów i firm IT zaczyna włączać generatywną sztuczną inteligencję do aplikacji związanych ze zdrowiem. Google i Highmark Health to dwie agencje, które opracowują unikalne narzędzia do personalizacji procesów przyjmowania pacjentów.

AWS firmy Amazon jest dedykowany do reprezentowania metod wykorzystujących generatywną sztuczną inteligencję i analizowania bazy danych medycznych. Podobnie Microsoft Azure aktywnie uczestniczy w budowaniu systemów, które pośredniczą w komunikacji między pacjentami a dostawcami produktów opieki zdrowotnej. AI prowadzi przedsięwzięcia takie jak Ambience Healthcare i Nabla, znacznie rozszerzając rolę AI, aby uwzględnić ją w warunkach klinicznych.

Raport Deloitte to tylko jedno z badań pokazujących, że mimo ostatnich przełomów i postępu technologicznego, tylko 53% Amerykanów rozważy wykorzystanie sztucznej inteligencji generatywnej w celu poprawy usług opieki zdrowotnej.

Fakt, że pozostałe 47% Amerykanów nadal nie wierzy w skuteczność sztucznej inteligencji generatywnej jako narzędzia pozwalającego obniżyć koszty i poprawić dostępność, wskazuje na istnienie istotnych luk na rynku.

Trudności techniczne i kwestie etyczne

Niezawodność generatywnej AI w opiece zdrowotnej to zbliżający się temat trendu, ponieważ badania pokazują jej nieprzewidywalność i wady. Badanie JAMA Pediatrics wykazało wysoki wskaźnik błędów w diagnozach chorób wieku dziecięcego przez lekarzy red-team w ChatGPT OpenAI, a badania w Beth Israel Deaconess Medical Center wykazały podobne wyniki w przypadku GPT.

W funkcji administracji medycznej test porównawczy MedAlign ujawnił niedociągnięcia modelu w codziennych czynnościach. Dało to modelowi 35% wskaźnik awaryjności.

Te problemy dotyczą miesięcy, w których uważa się, że może pojawić się możliwość naruszenia tych praw. Badania z obszarów związanych ze zdrowiem Stanford Medicine sugerują, że powstająca technologia AI może wzmacniać społeczne stereotypy, które mogą znacznie pogorszyć nierówności w zakresie opieki zdrowotnej.

Prywatność danych, zagrożenia bezpieczeństwa i zmieniające się przepisy związane z wykorzystaniem sztucznej inteligencji w opiece zdrowotnej oznaczają, że jej wykorzystanie wiąże się z wieloma warstwami złożoności.

Eksperci tacy jak Andrew Borkowski z VA Sunshine Healthcare Network i Jan Egger z Uniwersytetu Duisburg-Essen przyznają, że należy wdrożyć solidne mechanizmy walidacji i regulacji dla powstających technologii generatywnej sztucznej inteligencji.

Równoważenie innowacji AI i nadzoru nad opieką zdrowotną

Wspierają sztuczną inteligencję jako środek pomocniczy, a nie samodzielne rozwiązanie, dlatego też podkreślają, że każda aplikacja jest uważnie obserwowana przez doświadczonych specjalistów medycznych.

W związku z tym… agencje Światowej Organizacji Zdrowia starają się udoskonalić wytyczne, zgodnie z którymi badania i walidacja zastosowań sztucznej inteligencji w opiece zdrowotnej powinny być rygorystyczne i obejmować wystarczającą liczbę osób, aby zapewnić pewien poziom nadzoru.

Niniejsze zalecenie ma na celu nadzorowanie procesu wdrażania technologii AI w celu utrzymania ich bezpieczeństwa i korzyści dla konsumentów. Zalecanymi środkami są przejrzystość, niezależny audyt i różnorodność interesariuszy uczestniczących.

Sektor opieki zdrowotnej stoi przed problemem na rozdrożu, gdzie AI odgrywa większą rolę. Chociaż uznaje się, że AI ma potencjał, aby zmienić sposób świadczenia opieki zdrowotnej, istnieją pewne kwestie techniczne, etyczne i regulacyjne, które nadal stoją przed wykorzystaniem AI w medycynie w jej wdrażaniu.