In Australien hat ein Algorithmus 381.000 Menschen fälschlicherweise erklärt, sie schuldeten dem Staat Geld. Das System „Robodebt“ verrechnete Einkommen über Monate hinweg – und ignorierte, dass Gelegenheitsarbeiter nicht jeden Monat gleich viel verdienen. 746 Millionen Dollar wurden zu Unrecht eingetrieben. Mütter berichteten der Königlichen Untersuchungskommission, dass ihre Söhne nach Erhalt falscher Schuldbescheide Suizid begingen. Die Kommission sprach von einem „kostspieligen Versagen der öffentlichen Verwaltung – in menschlicher wie ökonomischer Hinsicht.“

In den Niederlanden stufte ein algorithmisches Risikoprofil-System tausende Familien als Betrugsfälle ein – auf Basis von „doppelter Staatsbürgerschaft“ und „ausländisch klingenden Namen“. Racial Profiling, eingebaut ins System. 26.000 Familien wurden fälschlicherweise zur Rückzahlung zehntausender Euro aufgefordert. Über 1.000 Kinder wurden ihren Eltern weggenommen und in staatliche Obhut gegeben. Die Regierung Rutte trat im Januar 2021 geschlossen zurück. Amnesty International nannte das System „xenophobe Maschinen“.

In Wer träumt für uns spricht Halden von 252.000 Menschen als „statistischen Fehlern“. Das ist die Sprache, die Systeme ermöglicht wie Robodebt und die Toeslagenaffaire: Menschen werden zu Datenpunkten. Fehler werden zu Rundungsungenauigkeiten. Und die Verantwortung verschwindet in der Architektur eines Systems, das niemand kontrolliert, weil alle glauben, es kontrolliere sich selbst.

Quellen:
Oxford Blavatnik School – Australia’s Robodebt Scheme
Amnesty International – Xenophobic Machines: Dutch Child Benefit Scandal


Weiterlesen