In den USA entscheiden Algorithmen mit, wer auf Bewährung kommt. Das COMPAS-System bewertet das Rückfallrisiko von Angeklagten – und stuft Schwarze systematisch als gefährlicher ein als Weiße. Die Fehlerquote bei Gesichtserkennung: 0,8 Prozent bei hellhäutigen Männern, 34,7 Prozent bei dunkelhäutigen Frauen. Mindestens acht dokumentierte Fehlverhaftungen allein durch Gesichtserkennung.
Das US-Justizministerium hat Ende 2024 einen umfassenden Bericht vorgelegt: KI wird in der Strafverfolgung in vier Bereichen eingesetzt – Identifikation, Forensik, Predictive Policing, Risikobewertung. In jedem Bereich reproduziert sie bestehende Vorurteile. Die Johns-Hopkins-Universität kommt zum Schluss: „Predictive Policing reduziert Kriminalität nicht. Es verschärft die ungleiche Behandlung.“
In Wer träumt für uns soll POLIS neutral sein. Aber „neutral“ heißt in der Praxis: trainiert auf historischen Daten, die historische Ungleichheit abbilden. Was als Objektivität verkauft wird, ist die Automatisierung der Vergangenheit. Im Roman wie in der Realität stellt sich dieselbe Frage: Wenn ein Algorithmus entscheidet, wer verdächtig ist – wer kontrolliert den Algorithmus?
Quellen:
Council on Criminal Justice – DOJ Report on AI in Criminal Justice
Johns Hopkins – Algorithmic Justice or Bias
National Law Review – AI Police Surveillance Bias