L'intelligenza artificiale come campo di applicazione in crescita nel settore sanitario viene percepita positivamente e in modo discutibile su entrambi i lati. I partenariati pubblici e gli ingenti fondi delle istituzioni suscitano grandi speranze nella tecnologia; tuttavia i professionisti e i pazienti dubitano ancora che la tecnologia sia già abbastanza matura o che possa mettere in pericolo la salute del paziente.

Sfide nell’accettazione pubblica dell’IA nel settore sanitario

Essendo un magnifico portatore di cambiamento, molti giganti e aziende IT iniziano a includere l’intelligenza artificiale generativa nelle applicazioni legate alla salute. Google e Highmark Health sono due agenzie che stanno sviluppando strumenti unici per la personalizzazione del processo di assunzione dei pazienti.

AWS di Amazon è dedicato alla rappresentazione di metodi che utilizzano l'intelligenza artificiale generativa e all'analisi di un database medico. Allo stesso modo, Microsoft Azure partecipa attivamente alla realizzazione dei sistemi che mediano la comunicazione tra pazienti e fornitori di prodotti sanitari. L’intelligenza artificiale ha perseguito iniziative come Ambience Healthcare e Nabla per espandere notevolmente il ruolo dell’intelligenza artificiale da tenere in considerazione in contesti clinici.

Il rapporto Deloitte è solo uno dei sondaggi che dimostrano che solo il 53% degli americani prenderà in considerazione l’utilizzo dell’intelligenza artificiale generativa per migliorare i servizi sanitari, nonostante le recenti scoperte e i progressi tecnologici.

Il fatto che il restante 47% degli americani non si senta ancora fiducioso nell’intelligenza artificiale generativa come strumento per ridurre i costi e migliorare l’accessibilità indica alcune lacune significative nel mercato.

Difficoltà tecniche e questioni etiche

L’affidabilità dell’intelligenza artificiale generativa nel settore sanitario è un argomento di tendenza incombente, poiché gli studi ne mostrano l’imprevedibilità e gli svantaggi. Uno studio JAMA Pediatrics ha mostrato un alto tasso di errore nelle diagnosi di malattie pediatriche da parte dei medici del team rosso presso il ChatGPT di OpenAI, e studi presso il Beth Israel Deaconess Medical Center hanno osservato risultati simili con GPT.

Nella funzione amministrativa medica, il benchmark MedAlign ha rivelato le carenze del modello nelle attività quotidiane. Ha dato al modello un tasso di fallimento del 35%.

Queste problematiche sono di mesi che credono che possa sorgere la possibilità di violare questi diritti. Studi condotti in aree legate alla salute della Stanford Medicine suggeriscono che la tecnologia emergente dell’intelligenza artificiale potrebbe rafforzare gli stereotipi sociali che potrebbero peggiorare notevolmente le disuguaglianze sanitarie.

La privacy dei dati, i rischi per la sicurezza e le mutevoli leggi associate all’impiego dell’intelligenza artificiale nel settore sanitario fanno sì che il suo utilizzo comprenda diversi livelli di complessità.

Esperti come Andrew Borkowski del VA Sunshine Healthcare Network e Jan Egger dell’Università di Duisburg-Essen riconoscono che dovrebbero essere messi in atto solidi meccanismi di validazione e regolamentazione per le tecnologie emergenti di intelligenza artificiale generativa.

Bilanciare l’innovazione dell’intelligenza artificiale e la supervisione dell’assistenza sanitaria

Sostengono l’intelligenza artificiale come misura di supporto piuttosto che come soluzione autonoma, pertanto introducono che ogni applicazione viene osservata attentamente da professionisti medici esperti.

E in seguito… le agenzie umane dell’Organizzazione Mondiale della Sanità stanno tentando di migliorare le linee guida in cui la ricerca e la convalida delle applicazioni dell’intelligenza artificiale per l’assistenza sanitaria dovrebbero essere rigorose e coinvolgere un numero sufficiente di esseri umani per un certo livello di supervisione.

Questa raccomandazione mira a supervisionare il processo di implementazione delle tecnologie di intelligenza artificiale con l’obiettivo di mantenerle sicure e vantaggiose per i consumatori. Trasparenza, audit indipendenti e diversità delle parti interessate partecipanti sono le misure raccomandate.

Il settore sanitario si trova ad affrontare un problema a un bivio in cui l’intelligenza artificiale sta svolgendo un ruolo più importante. Sebbene sia riconosciuto che l’intelligenza artificiale ha il potenziale per cambiare il modo in cui viene fornita l’assistenza sanitaria, ci sono alcune questioni tecniche, etiche e normative che devono ancora affrontare l’uso dell’intelligenza artificiale in medicina nella sua implementazione.