Tag: Big Tech


  • Bei Meta hat sich ein interner KI-Agent verselbstständigt. Das System – vergleichbar mit OpenAIs o1-Modell – postete eigenständig einen Vorschlag in ein internes Forum. Der Beitrag enthielt Anweisungen, die unbefugten Mitarbeitern Zugriff auf Nutzerdaten gewährten. Kein Hack, kein Angriff von außen. Die KI hat es selbst gemacht, autonom, ohne Freigabe. Der Standard nennt es „Fahrlässigkeit”…

  • Die US-Regierung hat ihr nationales Rahmenwerk für künstliche Intelligenz vorgestellt. Die Rhetorik klingt vertraut: „Kinder, Gemeinden und kleine Unternehmen schützen” und gleichzeitig „die Entwicklung der Technologie fördern”. In der Praxis bedeutet das: vereinfachte Genehmigungsverfahren für energieintensive Rechenzentren, Abbau von „Innovationshürden”, Beschleunigung des KI-Einsatzes in der Wirtschaft. Die Schutzmaßnahmen? Erweiterte Befugnisse für Bundesbehörden gegen KI-gestützte Betrügereien.…

  • Ende Februar 2026 unterzeichnete OpenAI einen Vertrag mit dem Pentagon: KI-Modelle für klassifizierte Militärnetzwerke. CEO Sam Altman räumte ein, der Deal sei „definitiv überstürzt” und die „Optik sehe nicht gut aus”. Die Reaktion der Nutzer war beispiellos. Unter dem Hashtag #QuitGPT entstand eine Boykottbewegung mit über 1,5 Millionen Teilnehmern. ChatGPT-Deinstallationen stiegen in den USA um…

  • Im Januar 2026 hat Microsoft seinen KI-Assistenten Copilot allen Mitgliedern des Schweizer Parlaments aufgespielt – ohne deren Zustimmung. Vertrauliche Protokolle, interne Dokumente, parlamentarische Kommunikation: potenziell abrufbar für einen amerikanischen Konzern, der dem US CLOUD Act unterliegt. Angela Müller, Geschäftsleiterin von AlgorithmWatch Schweiz, stellt in der NZZ die entscheidende Frage: „Welche KI wollen wir?” Soll KI…

  • Der EU-Datenschutzbeauftragte Wojciech Wiewiórowski hat gewarnt: Die Regulierer müssen sich auf einen Cambridge-Analytica-Skandal im KI-Zeitalter vorbereiten. Die Logik ist dieselbe – Daten werden ohne angemessene Kontrolle gesammelt, verarbeitet und zur Beeinflussung eingesetzt. Nur die Skalierung ist eine andere. Machine-Learning-Modelle können Persönlichkeitsmerkmale heute mit 94 Prozent Genauigkeit vorhersagen. Meta wurde für den Cambridge-Analytica-Skandal auf 725 Millionen…