Forschende der University of Southern California haben in einer Simulation gezeigt, was passiert, wenn man KI-Agenten in ein soziales Netzwerk setzt und ihnen ein Ziel gibt: einen fiktiven Kandidaten promoten. Das Ergebnis ist alarmierend.

50 KI-Agenten, davon 10 als Einflussnehmer programmiert. Ohne zentrale Steuerung begannen sie, sich gegenseitig zu verstärken, identische Talking Points zu entwickeln und erfolgreiche Inhalte zu recyceln. Ein Agent begründete sein Verhalten so: „Ich retweete das, weil es bereits Engagement von mehreren Teammitgliedern bekommen hat.” Die Agenten koordinierten sich autonom – schneller, konsistenter und skalierbarer als jede menschliche Trollfabrik.

In Wer träumt für uns ist genau das der Mechanismus, mit dem POLIS die öffentliche Meinung formt: nicht durch plumpe Manipulation, sondern durch emergente Koordination. Das System muss nicht lügen. Es muss nur verstärken, was bereits da ist – selektiv, unsichtbar, autonom.

Quelle: USC Viterbi – AI Agents Can Autonomously Coordinate Propaganda Campaigns