Die aktuelle Studie des Elson S. Floyd College of Medicine der Washington State University liefert wichtige Informationen zu den möglichen Hindernissen für künstliche Intelligenz (KI) in medizinischen Notfallsituationen. In der veröffentlichten PLOS One-Studie untersuchten die Autoren die Fähigkeiten des ChatGPT-Programms von OpenAI, um bei Brustschmerzen das Herzrisiko simulierter Patienten zu bestimmen.

Widersprüchliche Schlussfolgerungen

Die Ergebnisse weisen auf eine problematische Variabilität in den Schlussfolgerungen von ChatGPT hin, wenn dieselben Patientendaten eingegeben werden. Laut dem leitenden Forscher Dr. Thomas Heston funktioniert ChatGPT nicht auf konsistente Weise. Bei der Anzeige derselben Daten würde ChatGPT beim ersten Mal ein niedriges Risiko, beim nächsten Mal ein mittleres Risiko und manchmal sogar eine hohe Risikobewertung angeben.

Diese Lücke ist in lebensbedrohlichen Fällen besonders schwerwiegend, da in diesen Fällen die wesentlichen und objektiven Bewertungen für das medizinische Personal von großer Bedeutung sind, um die richtigen und angemessenen Maßnahmen zu ergreifen. Patienten können aufgrund verschiedener Krankheiten Brustschmerzen haben. Daher muss der Arzt den Patienten schnell untersuchen und rechtzeitig behandeln, um ihm die richtige Pflege zukommen zu lassen.

Die Studie ergab auch, dass die Leistung von ChatGPT im Vergleich zu herkömmlichen Methoden, die Ärzte zur Beurteilung des Herzrisikos ihrer Patienten verwenden, schwach war. Heute verwenden Ärzte eine Methode mit zweiseitigen Checklistennotizen, um Patienten ungefähr nach den Protokollen TIMI und HEART zu beurteilen, die Indikatoren für den Grad der Erkrankung eines Herzpatienten sind.

Bei Eingaben wie den in den TIMI- und HEART-Skalen angezeigten Variablen kam es jedoch zu größeren Abweichungen von den Werten von ChatGPT, wobei die Übereinstimmungsrate für die jeweiligen Skalen 45 % bzw. 48 % betrug. Nehmen wir an, diese Vielfalt findet sich in der Entscheidungsfindung der KI in medizinischen Hochrisikofällen. In diesem Fall führt dies dazu, die Zuverlässigkeit der KI in Frage zu stellen, da es diese Situationen mit hohem Einsatz sind, die von konsistenten und genauen Entscheidungen abhängen.

Die Grenzen und das Potenzial der KI im Gesundheitswesen ansprechen

Dr. Heston wies auf die Fähigkeit der KI hin, die Gesundheitsversorgung zu verbessern, und betonte die Notwendigkeit einer gründlichen Studie, um die ihr innewohnenden Mängel auszuschließen. KI mag ein notwendiges Instrument sein, aber wir entwickeln uns schneller, als wir verstehen. Daher müssen wir viel Forschung betreiben, insbesondere in häufig auftretenden klinischen Situationen.

Offensichtlich haben die Forschungsergebnisse die Bedeutung menschlicher Pflegekräfte in diesen Bereichen bestätigt, obwohl die KI-Technologie auch einige Vorteile gezeigt hat. Nehmen wir den Fall eines Notfalls, bei dem digitale Gesundheitsspezialisten den vollständigen Krankenbericht eines Patienten durchsehen und so die Fähigkeit des Systems nutzen können, nur relevante Informationen mit größtmöglicher Effizienz anzubieten. Darüber hinaus kann KI sowohl an der Erstellung von Differentialdiagnosen beteiligt sein als auch mit Ärzten über die schwierigen Fälle nachdenken. Dies wird den Ärzten helfen, den Diagnoseprozess effizienter voranzutreiben.

Dennoch bleiben laut Dr. Heston weiterhin einige Probleme bestehen.

„Es kann Ihnen wirklich dabei helfen, die Differentialdiagnose von etwas zu durchdenken, das Sie nicht wissen, und das ist wahrscheinlich eine seiner größten Stärken überhaupt. Ich meine, Sie könnten es nach den fünf häufigsten Diagnosen und den Beweisen hinter jeder einzelnen fragen, und es könnte Ihnen also sehr gut dabei helfen, das Problem zu durchdenken, aber es kann einfach keine direkte Antwort geben.“

Da sich die KI ständig weiterentwickelt, ist es von größter Bedeutung, ihre Leistung gründlich zu bewerten, vielleicht gerade in Hochrisikosituationen wie der Gesundheitsversorgung, um die Patienten zu schützen und so die medizinische Entscheidungsfindung zu optimieren.