In den USA entscheiden Algorithmen mit, wer auf Bewährung kommt. Das COMPAS-System bewertet das Rückfallrisiko von Angeklagten – und stuft Schwarze systematisch als gefährlicher ein als Weiße. Die Fehlerquote bei Gesichtserkennung: 0,8 Prozent bei hellhäutigen Männern, 34,7 Prozent bei dunkelhäutigen Frauen. Mindestens acht dokumentierte Fehlverhaftungen allein durch Gesichtserkennung. Das US-Justizministerium hat Ende 2024 einen umfassenden…