UnitedHealth Group, der größte Krankenversicherer der USA, setzte einen Algorithmus namens „nH Predict“ ein, um zu entscheiden, wie lange Patienten nach Operationen oder Schüben in Rehabilitationseinrichtungen bleiben durften. Das System überstimmte die Empfehlungen der behandelnden Ärzte – und kürzte systematisch die Versorgung schwer kranker Medicare-Patienten. Die investigative Serie „Denied by AI“ von STAT News deckte auf, wie der Algorithmus zum „Förderband der Ablehnungen“ wurde. Die Recherche war Pulitzer-Finalist 2024.
Parallel zeigt eine Yale-Studie: KI-Modelle zur Herz-Kreislauf-Diagnostik haben eine 13,2 Prozent höhere Fehlerquote bei afroamerikanischen Patienten. Hautkrebserkennung funktioniert bei dunkler Haut signifikant schlechter. Sepsis-Vorhersagemodelle übersehen zwei Drittel der tatsächlichen Fälle.
In Wer träumt für uns plant Halden, 252.000 Menschen als „statistische Fehler“ zu löschen. Das klingt nach Fiktion. Aber wenn ein Algorithmus entscheidet, wer Pflege bekommt und wer nicht – wenn er systematisch bestimmte Gruppen benachteiligt, weil die Trainingsdaten sie nicht repräsentieren – dann sind „statistische Fehler“ keine Romanidee. Sie sind Geschäftsmodell.
Quellen:
STAT News – Denied by AI (Investigative Serie)
PLOS Digital Health – Bias in Medical AI (Yale, 2024)