Niedawne badanie przeprowadzone przez Elson S. Floyd College of Medicine na Uniwersytecie Stanowym w Waszyngtonie dostarcza kluczowych informacji na temat możliwych barier dla sztucznej inteligencji (AI) w nagłych sytuacjach medycznych. W opublikowanym badaniu PLOS One autorzy zbadali możliwości programu ChatGPT OpenAI w zakresie podejmowania decyzji o ryzyku kardiologicznym u symulowanych pacjentów w przypadku bólu w klatce piersiowej.

Niespójne wnioski

Wyniki wskazują na problematyczny poziom zmienności wniosków ChatGPT przy wprowadzaniu tych samych danych pacjenta. Według słów głównego badacza, dr Thomasa Hestona, ChatGPT nie działa w sposób spójny. Pokazując dokładnie te same dane, ChatGPT za pierwszym razem dawałoby niskie ryzyko, następnym razem średnie ryzyko, a czasami nawet ocenę wysokiego ryzyka.

Ta luka jest bardzo poważna w krytycznych przypadkach zagrażających życiu, ponieważ w takich przypadkach istotne i obiektywne oceny mają duże znaczenie dla lekarza, aby mógł podjąć właściwe i właściwe działania. Pacjenci mogą odczuwać ból w klatce piersiowej z powodu różnych chorób. Dlatego lekarz musi szybko zbadać pacjenta i podjąć terminowe leczenie, aby zapewnić pacjentowi odpowiednią opiekę.

Badanie wykazało również, że wydajność ChatGPT była słaba w porównaniu do tradycyjnych metod stosowanych przez lekarzy do oceny ryzyka kardiologicznego pacjentów. Obecnie lekarze, którzy oceniają pacjentów w przybliżeniu zgodnie z protokołami TIMI i HEART, które są wskaźnikami stopnia zaawansowania choroby serca u pacjenta, stosują metodę dwustronnej listy kontrolnej.

Jednakże, gdy jako dane wejściowe podawano zmienne, takie jak te wyświetlane w skalach TIMI i HEART, osiągnięto większe rozbieżności z wynikami ChatGPT, przy czym wskaźnik zgodności wynosił 45% i 48% dla odpowiednich skal. Załóżmy, że ta różnorodność występuje w podejmowaniu decyzji przez AI w przypadkach medycznych wysokiego ryzyka. W takim przypadku prowadzi to do kwestionowania niezawodności AI, ponieważ to właśnie te sytuacje wysokiego ryzyka zależą od spójnych i dokładnych decyzji.

Rozwiązywanie problemów związanych z ograniczeniami i potencjałem sztucznej inteligencji w opiece zdrowotnej

Dr Heston wskazał na zdolność AI do zwiększenia wsparcia opieki zdrowotnej i podkreślił konieczność przeprowadzenia dogłębnego badania w celu wykluczenia niedociągnięć w niej tkwiących. AI może być niezbędnym narzędziem, ale poruszamy się szybciej, niż nam się wydaje. Dlatego powinniśmy przeprowadzić wiele badań, zwłaszcza w powszechnie spotykanych sytuacjach klinicznych.

Najwyraźniej wyniki badań potwierdziły znaczenie pielęgniarek w tych warunkach, chociaż technologia AI wykazała również pewne zalety. Weźmy na przykład przypadek nagły, w którym specjaliści od zdrowia cyfrowego mogliby przejrzeć pełny raport medyczny pacjenta, wykorzystując w ten sposób zdolność systemu do oferowania tylko istotnych informacji z największym stopniem wydajności. Poza tym AI może zarówno uczestniczyć w generowaniu diagnoz różnicowych, jak i rozważać trudne przypadki z lekarzami. Pomoże to lekarzom sprawniej przejść przez proces diagnostyczny.

Mimo wszystko, zdaniem dr Hestona, nadal istnieją pewne kwestie do rozwiązania.

„Może być naprawdę dobry w pomaganiu ci w przemyśleniu diagnozy różnicowej czegoś, czego nie wiesz, i prawdopodobnie jest to jedna z jego największych zalet. Mam na myśli, że możesz poprosić go o pięć najczęstszych diagnoz i dowody na poparcie każdej z nich, więc może być bardzo dobry w pomaganiu ci w przemyśleniu problemu, ale po prostu nie może dać prostej odpowiedzi”.

W obliczu ciągłego rozwoju sztucznej inteligencji niezwykle ważna jest dogłębna ocena jej działania, być może szczególnie w sytuacjach wysokiego ryzyka, takich jak opieka zdrowotna, w celu zabezpieczenia pacjentów i optymalizacji podejmowania decyzji medycznych.