China macht Ernst mit der Regulierung von KI – aber auf eine Weise, die mehr über den Regulierer verrät als über die Technologie. Die Cybersicherheitsbehörde CAC hat einen Gesetzentwurf vorgelegt, der KI-Systeme regulieren soll, die „menschliches Verhalten nachahmen und zu emotionalen Interaktionen führen”. Betroffen sind alle Produkte mit über einer Million Nutzern.
Einige Maßnahmen sind bemerkenswert vernünftig: Anbieter müssen Abhängigkeitsmuster erkennen und eingreifen. Bei Suizidgefahr sollen menschliche Ansprechpartner übernehmen. Nach zwei Stunden Nutzung ist eine Zwangspause vorgeschrieben. Prominente Hinweise, dass man mit einer KI spricht, nicht mit einem Menschen. Das sind Schutzmaßnahmen, von denen Europa und die USA weit entfernt sind.
Und dann Artikel 10: Trainingsdaten müssen „den Grundwerten des Sozialismus entsprechen und traditionelle chinesische Werte widerspiegeln.” Da ist er – der Moment, in dem Regulierung zu Kontrolle wird. Eine KI, die emotionale Bindungen aufbaut und gleichzeitig auf ideologische Konformität trainiert ist, ist kein Schutzmechanismus. Sie ist ein Erziehungsinstrument.
In Wer träumt für uns wird POLIS nicht auf sozialistische Grundwerte trainiert. Aber es wird auf die Werte derer kalibriert, die es kontrollieren – und der Unterschied ist kleiner, als man denkt. Chinas Entwurf zeigt, was passiert, wenn ein Staat versteht, dass die gefährlichste Eigenschaft von KI nicht ihre Intelligenz ist, sondern ihre Intimität.
Quelle: heise/iX – China will anthropomorphe KI streng regulieren
