Sechs Millionen Posts haben ORF-Journalisten ausgewertet. Was sie fanden, ist ein Lehrstück über die Verwundbarkeit öffentlicher Medien: Im August 2025 erschienen nach einem Gaza-Bericht auf der ZiB-Instagramseite rund 200 Kommentare – gleichzeitig, koordiniert, dämonisierend. Kein spontaner Shitstorm. Eine Kampagne. Extremismusforscherin Julia Ebner nennt es „koordinierte Verzerrung”: Bots und gesteuerte Accounts überfluten Kommentarspalten, bis die algorithmische…
Basic Thinking beschreibt heute, wie KI-Schwärme – koordinierte Netzwerke aus KI-gesteuerten Personas – öffentlichen Konsens vortäuschen und Demokratien verzerren könnten. Die Bots haben Gedächtnis, koordinieren sich auf gemeinsame Ziele und variieren Ton und Inhalt. Im Roman nenne ich das den „Erwartungseffekt”: POLIS zeigt Prognosen, die die Realität verändern, die sie vorhersagen. Wenn ein System zeigt,…
2026 ist ein Superwahljahr. Staaten von den USA bis Brasilien verschärfen ihre Gesetze gegen KI-generierte Wahlmanipulation. Der US-amerikanische „AI Fraud Accountability Act” stellt KI-basierte Identitätstäuschung unter Strafe. Brasilien verbietet Deepfakes von Kandidaten. Aber es gibt ein paradoxes Problem, das im Roman eine zentrale Rolle spielt: den „Lügner-Bonus” (Liar’s Dividend). Weil Deepfakes existieren, kann jedes echte…
Forschende der University of Southern California haben in einer Simulation gezeigt, was passiert, wenn man KI-Agenten in ein soziales Netzwerk setzt und ihnen ein Ziel gibt: einen fiktiven Kandidaten promoten. Das Ergebnis ist alarmierend. 50 KI-Agenten, davon 10 als Einflussnehmer programmiert. Ohne zentrale Steuerung begannen sie, sich gegenseitig zu verstärken, identische Talking Points zu entwickeln…
Zwei ETH-Dozenten haben in der NZZ eine alarmierende Bilanz gezogen: Sprachmodelle können in Debatten „bis zu 80 Prozent wirksamer überzeugen als Menschen”. Sie erkennen indirekte Anfragen, durchschauen Falschaussagen, verstehen Ironie. Das Modell „Centaur” sagt menschliches Verhalten in über 150 kognitiven Experimenten präzise voraus. In Feldexperimenten während Wahlen in den USA, Kanada und Polen wurde gezeigt,…
Die EU-KI-Verordnung verlangt ab August 2025 die Kennzeichnung KI-generierter Bilder. Ein Gesetzentwurf des Bundesrats sah bis zu fünf Jahre Haft für die Verbreitung von Deepfakes vor. Er scheiterte am Wahlkalender. Die Detektionstools? Funktionieren unzuverlässig. Das Ergebnis: ein rechtsfreier Raum, in dem synthetische Realität und echte Realität ununterscheidbar werden. Im Januar 2026 sorgte Elon Musks KI…
Der Mann, der Cambridge Analytica zu Fall brachte, warnt vor dem nächsten Skandal – und er sagt, er wird größer. Christopher Wylie, damals Datenarchitekt bei Cambridge Analytica, heute einer der profiliertesten Stimmen für KI-Regulierung, fordert: Künstliche Intelligenz muss reguliert werden wie die Luftfahrt oder die Pharmaindustrie. Identifiziere die Risiken. Teste vor der Veröffentlichung. Setze Compliance…
Cambridge Analytica ist seit 2018 aufgelöst. Aber seine Methoden – psychografisches Profiling, Mikrotargeting auf Basis von Persönlichkeitsmodellen, die Umwandlung von Social-Media-Daten in politische Waffen – sind nicht verschwunden. Sie wurden dezentralisiert, in die Standardinfrastruktur politischer Kampagnen integriert, und durch generative KI exponentiell verstärkt. Eine Studie in den Proceedings of the National Academy of Sciences zeigt:…
Wir schreiben viel darüber, wie gefährlich KI für die Demokratie sein kann. Heute zur Abwechslung ein Fall, in dem KI der Demokratie definitiv nicht geschadet hätte. Weil die Latte so niedrig lag, dass selbst ein Taschenrechner sie gerissen hätte. Juni 2023, SPÖ-Parteitag in Linz. 597 Delegierte stimmen über den neuen Parteivorsitz ab: Andreas Babler gegen…
Der EU-Datenschutzbeauftragte Wojciech Wiewiórowski hat gewarnt: Die Regulierer müssen sich auf einen Cambridge-Analytica-Skandal im KI-Zeitalter vorbereiten. Die Logik ist dieselbe – Daten werden ohne angemessene Kontrolle gesammelt, verarbeitet und zur Beeinflussung eingesetzt. Nur die Skalierung ist eine andere. Machine-Learning-Modelle können Persönlichkeitsmerkmale heute mit 94 Prozent Genauigkeit vorhersagen. Meta wurde für den Cambridge-Analytica-Skandal auf 725 Millionen…