L’étude récente du Elson S. Floyd College of Medicine de l’Université de l’État de Washington fournit des informations clés sur les obstacles possibles à l’intelligence artificielle (IA) lors de situations médicales d’urgence. Dans l’étude PLOS One publiée, les auteurs ont exploré les capacités du programme ChatGPT d’OpenAI à décider du risque cardiaque de patients simulés dans un cas de douleur thoracique.

Des conclusions incohérentes

Les résultats soulignent un niveau problématique de variabilité dans les conclusions du ChatGPT alors que les mêmes données sur les patients sont saisies. Selon le Dr Thomas Heston, chercheur principal, ChatGPT ne fonctionne pas de manière cohérente. En affichant exactement les mêmes données, ChatGPT donnerait un risque faible la première fois, un risque intermédiaire la fois suivante et même, parfois, une note de risque élevé.

Cette lacune est très grave dans les cas critiques mettant la vie en danger, car dans ces cas, les évaluations essentielles et objectives sont très importantes pour que le personnel médical puisse prendre les mesures précises et appropriées. Les patients peuvent ressentir des douleurs thoraciques dues à différentes maladies. Par conséquent, le médecin doit examiner le patient rapidement et effectuer un traitement en temps opportun afin de lui prodiguer les soins appropriés.

L’étude a également révélé que les performances de ChatGPT étaient faibles par rapport aux méthodes traditionnelles utilisées par les médecins pour évaluer le risque cardiaque des patients. Aujourd’hui, les médecins utilisent une méthode de note de contrôle bilatérale qui évalue les patients de manière approximative selon les protocoles TIMI et HEART, qui sont des indicateurs du degré de maladie cardiaque d’un patient.

Cependant, en proposant comme entrées des variables telles que celles affichées dans les échelles TIMI et HEART, un plus grand désaccord a été atteint avec les scores de ChatGPT, le taux d'accord étant de 45 % et 48 % pour les échelles respectives. Supposons que cette diversité se retrouve dans la prise de décision de l’IA dans les cas médicaux à haut risque. Dans ce cas, cela amène à s’interroger sur la fiabilité de l’IA, car ce sont ces situations à enjeux élevés qui dépendent de décisions cohérentes et précises.

Répondre aux limites et au potentiel de l’IA dans le domaine de la santé

Le Dr Heston a souligné la capacité de l’IA à renforcer le soutien aux soins de santé et a souligné la nécessité de mener une étude approfondie pour exclure les déficiences qui y sont inhérentes. L’IA est peut-être un outil nécessaire, mais nous avançons plus vite que nous ne le pensons. Par conséquent, nous devrions faire beaucoup de recherches, en particulier dans les situations cliniques couramment rencontrées.

De toute évidence, les résultats de la recherche ont confirmé l’importance des infirmières humaines dans ces contextes, même si la technologie de l’IA a également montré certains avantages. Prenons l’exemple d’une urgence au cours de laquelle des spécialistes de la santé numérique pourraient consulter le rapport médical complet d’un patient, utilisant ainsi la capacité du système à n’offrir que les informations pertinentes avec le plus grand degré d’efficacité. En outre, l’IA peut à la fois participer à la génération de diagnostics différentiels et réfléchir aux cas difficiles avec les médecins. Cela aidera les médecins à avancer plus efficacement dans le processus de diagnostic.

Néanmoins, certains problèmes subsistent selon le Dr Heston.

« Cela peut être très utile pour vous aider à réfléchir au diagnostic différentiel de quelque chose que vous ne connaissez pas, et c’est probablement l’une de ses plus grandes forces. Je veux dire, vous pourriez lui demander les cinq principaux diagnostics et les preuves derrière chacun d’eux, et cela pourrait donc être très utile pour vous aider à réfléchir au problème, mais il ne peut tout simplement pas donner de réponse simple.

Là où l’IA est en constante évolution, il est d’une importance primordiale d’évaluer ses performances en profondeur, peut-être spécialement dans des situations à haut risque comme les soins de santé, afin de garantir que les patients optimisent ainsi la prise de décision médicale.