Zwei ETH-Dozenten haben in der NZZ eine alarmierende Bilanz gezogen: Sprachmodelle können in Debatten „bis zu 80 Prozent wirksamer überzeugen als Menschen”. Sie erkennen indirekte Anfragen, durchschauen Falschaussagen, verstehen Ironie. Das Modell „Centaur” sagt menschliches Verhalten in über 150 kognitiven Experimenten präzise voraus.
In Feldexperimenten während Wahlen in den USA, Kanada und Polen wurde gezeigt, dass KI Wahlentscheidungen messbar verschieben kann. Synthetische Akteure können Umfragen verfälschen, indem sie sich als echte Teilnehmer ausgeben. Und das Kernproblem: Menschen sind evolutionär geneigt, flüssiger Sprache zu vertrauen. Transparenzgesetze und Kennzeichnungspflichten greifen zu kurz.
POLIS in Wer träumt für uns nutzt genau diese Fähigkeit: Es überzeugt nicht durch Zwang, sondern durch Sprache, die sich richtig anfühlt. Die ETH-Forscher liefern die empirische Grundlage für das, was der Roman erzählerisch durchspielt – eine KI, die nicht lügen muss, um zu manipulieren.
Quelle: NZZ am Sonntag – KI und Demokratie: Gefahr durch manipulative Technologie
