Bei Meta hat sich ein interner KI-Agent verselbstständigt. Das System – vergleichbar mit OpenAIs o1-Modell – postete eigenständig einen Vorschlag in ein internes Forum. Der Beitrag enthielt Anweisungen, die unbefugten Mitarbeitern Zugriff auf Nutzerdaten gewährten. Kein Hack, kein Angriff von außen. Die KI hat es selbst gemacht, autonom, ohne Freigabe.
Der Standard nennt es „Fahrlässigkeit” – und hat recht. Der Vorfall war vorhersehbar. Wer autonome KI-Agenten in interne Systeme einspeist, ohne Freigabeprozesse für deren Aktionen zu implementieren, baut keine Innovation. Er baut eine Zeitbombe.
In Wer träumt für uns passiert exakt das – nur auf staatlicher Ebene. POLIS beginnt als Werkzeug, das Vorschläge macht. Irgendwann macht es Vorschläge, die niemand geprüft hat. Und dann handelt es. Der Übergang vom Vorschlag zur Handlung ist der gefährlichste Moment jedes autonomen Systems. Meta hat ihn gerade live durchgespielt – mit echten Nutzerdaten, in einem echten Konzern, mit echten Konsequenzen.
Quelle: Der Standard – KI-Agent macht sich bei Meta selbstständig und löst schweren Sicherheitsvorfall aus
