Das Office for Civil Rights (OCR) im Department of Health and Human Services (HHS) hat vor Kurzem eine endgültige Regelung zur Anwendbarkeit von Abschnitt 1557 des Affordable Care Act erlassen, der alle mit Bundesmitteln finanzierten Gesundheitsprogramme daran hindert, aufgrund von Rasse, Hautfarbe, Staatsangehörigkeit, Geschlecht, Alter oder Behinderung zu diskriminieren.

Diese Regel steht im Einklang mit der Entscheidung des Obersten Gerichtshofs im Fall Bostock gegen Clayton County aus dem Jahr 2020. Unter Abschnitt 1557 wird eine Diskriminierung „aufgrund des Geschlechts“ verstanden, die sowohl die sexuelle Orientierung als auch die Geschlechtsidentität umfasst. Die letzte Regel besagt außerdem, dass die Nutzungsstandards der Anbieter auch dann unter Abschnitt 1557 bleiben, wenn maschinelles Lernen in einer auf künstlicher Intelligenz basierenden Technologie eingesetzt wird. Daher sind sie verpflichtet, alle potenziellen Diskriminierungsrisiken zu prüfen und anzugehen.

Bewertung des KI-Verzerrungsrisikos

Gemäß der Governance-Regel ist ein „Tool zur Entscheidungsunterstützung bei der Patientenversorgung“ jede eigenständige oder kombinierte Konfiguration einer Technologie oder Methode, die eine abgedeckte Einheit zur Unterstützung klinischer Entscheidungen verwendet. Einige Anbieter von Tools für Anwendungen zur direkten Patientenversorgung verwenden beispielsweise prädiktive Algorithmen, mit denen das Patientenrisiko und die Schwere zukünftiger gesundheitlicher Ereignisse beurteilt werden können, sowie Analyse-Engines, mit denen medizinische Ansprüche je nach Notwendigkeit der Behandlung bestätigt oder abgelehnt werden.

OCR erklärte, dass bei der Nutzung solcher Tools und der Bevorzugung KI-basierter Entscheidungsfindung die Situation jedes Patienten neu überdacht werden müsse. Mehrere Studien zeigten, dass die Abhängigkeit von bestimmten Algorithmen zu rassischen und ethnischen Ungleichheiten führte. Die obige Definition umfasst automatisierte Fahrzeuge und nicht automatisierte Hilfsmittel wie Flussdiagramme. Gesundheitstechnologie könnte daher unfair sein, wenn Menschen mit Behinderungen keine gleichwertige Versorgung erhalten und die Anbieter die individuellen Merkmale der Gesundheitsuntersuchung nicht berücksichtigen.

Angemessene Bemühungen zur Vermeidung von Vorurteilen

Die Fähigkeit des betroffenen Unternehmens, die zusätzliche Verbraucherverantwortung zu übernehmen, oder seine finanziellen Mittel. Unabhängig davon, ob die Produkte für den von den Entwicklern und Aufsichtsbehörden genehmigten Verwendungszweck hergestellt werden, sollten die Entwickler unabhängig von der Datenaufteilung versuchen, das Unternehmen über das Diskriminierungsrisiko aufzuklären.

Geben Sie explizit an, ob die betroffene Person (in deren Namen die abgedeckte Entität handelt) einem Prozess gefolgt ist oder ob die abgedeckte Entität (d. h. eine Organisation, die im Namen der betroffenen Person handelt) bereits einen Prozess zur Bewertung der verwendeten Tools entwickelt hat.

Die Regelung unterscheidet sich grundlegend von der früheren Regelung, wonach Medicare-Teil-B-Mittel als staatliche Unterstützung gelten, wenn sie an Leistungserbringer und Lieferanten vergeben werden. Eine leichte Reduzierung der Zahl der Empfänger von Teil-B-Mitteln und ihre Befreiung von den Anforderungen des Abschnitts 1557 führt dazu, dass diese Personen Abschnitt 1557 und anderen Bürgerrechtsvorschriften entsprechen, die vom OCR-Amt umgesetzt werden.