Il recente studio dell’Elson S. Floyd College of Medicine della Washington State University fornisce informazioni chiave sui possibili ostacoli all’intelligenza artificiale (AI) durante le situazioni di emergenza medica. Nello studio PLOS One pubblicato, gli autori hanno esplorato le capacità del programma ChatGPT di OpenAI di decidere sul rischio cardiaco di pazienti simulati in un caso di dolore toracico.

Conclusioni incoerenti

I risultati evidenziano un livello problematico di variabilità nelle conclusioni del ChatGPT mentre vengono immessi gli stessi dati del paziente. Secondo il dottor Thomas Heston, il ricercatore capo, ChatGPT non funziona in modo coerente. Quando mostrava esattamente gli stessi dati, ChatGPT dava un rischio basso la prima volta, un rischio intermedio la volta successiva e, a volte, anche una valutazione di rischio alto.

Questa lacuna è molto grave nei casi critici di pericolo di vita perché in questi casi le valutazioni essenziali e obiettive hanno molto significato affinché il medico possa intraprendere azioni precise e appropriate. I pazienti possono avvertire dolore toracico a causa di diverse malattie. Pertanto, il medico deve esaminare rapidamente il paziente ed eseguire un trattamento tempestivo per fornirgli la cura adeguata.

Lo studio ha inoltre scoperto che le prestazioni di ChatGPT erano deboli se paragonate ai metodi tradizionali utilizzati dai medici per valutare il rischio cardiaco dei pazienti. Oggi i medici utilizzano il metodo della lista di controllo bilaterale che valuta i pazienti approssimativamente secondo i protocolli TIMI e HEART che sono indicatori del grado di malattia di un paziente cardiaco.

Tuttavia, quando si offrono come input variabili come quelle visualizzate nelle scale TIMI e HEART, è stato raggiunto un maggiore disaccordo con i punteggi di ChatGPT, con un tasso di accordo del 45% e del 48% per le rispettive scale. Supponiamo che questa diversità si trovi nel processo decisionale dell’IA in casi medici ad alto rischio. In tal caso, si porta a mettere in dubbio l’affidabilità dell’intelligenza artificiale perché sono queste situazioni ad alto rischio che dipendono da decisioni coerenti e accurate.

Affrontare i limiti e il potenziale dell’intelligenza artificiale nel settore sanitario

Il dottor Heston ha sottolineato la capacità dell’intelligenza artificiale di aumentare il supporto sanitario e ha sottolineato la necessità di condurre uno studio approfondito per escludere le carenze ad essa inerenti. L’intelligenza artificiale può essere uno strumento necessario, ma ci stiamo muovendo più velocemente di quanto pensiamo. Pertanto, dovremmo fare molte ricerche, soprattutto nelle situazioni cliniche comunemente riscontrate.

Evidentemente, i risultati della ricerca hanno confermato l’importanza degli infermieri in questi contesti, sebbene anche la tecnologia dell’intelligenza artificiale abbia mostrato alcuni vantaggi. Prendiamo il caso di un’emergenza durante la quale gli specialisti della sanità digitale sarebbero in grado di esaminare il referto medico completo di un paziente, sfruttando così la capacità del sistema di offrire solo informazioni pertinenti con il massimo grado di efficienza. Oltre a ciò, l’intelligenza artificiale può sia partecipare alla generazione di diagnosi differenziali sia pensare ai casi difficili con i medici. Ciò aiuterà i medici a procedere in modo più efficiente con il processo diagnostico.

Tuttavia, secondo il dottor Heston, permangono ancora alcuni problemi.

“Può essere davvero utile per aiutarti a pensare attraverso la diagnosi differenziale di qualcosa che non conosci, e probabilmente è uno dei suoi maggiori punti di forza. Voglio dire, potresti chiedergli le cinque principali diagnosi e le prove dietro ciascuna di esse, e quindi potrebbe essere molto utile per aiutarti a riflettere sul problema, ma semplicemente non può dare una risposta semplice.

Laddove l’intelligenza artificiale è in continua evoluzione, è di fondamentale importanza valutare approfonditamente le sue prestazioni, magari proprio in situazioni ad alto rischio come l’assistenza sanitaria, per proteggere i pazienti in quanto tali e ottimizzare il processo decisionale medico.