Geschrieben von Whitebird am 15.01.2026 um 14:19:
KI-Stilblüte: Polizei fällt auf halluzinierenden Copilot herein – Fussballfans verpassen Spiel
KI-Stilblüte: Polizei fällt auf halluzinierenden Copilot herein – Fussballfans verpassen Spiel
Martin Geuß
15. Januar 2026
Weil sich die britische Polizei auf Halluzinationen von Microsofts Copilot verlassen hat, verpassten Fans des Fussballclubs Maccabi Tel Aviv im November 2025 ein Spiel ihrer Mannschaft. Die britische Polizei ließ sie beim UEFA Europa League Spiel zwischen Aston Villa und Maccabi Tel Aviv nicht ins Stadion.
Was war passiert?
Die britische Polizei erstellte im Vorfeld des Spiels eine Risiko-Analyse und griff dabei auf Microsofts Copilot zurück. Dieser erfand ein Spiel zwischen West Ham United und Maccabi Tel Aviv, das niemals stattgefunden hat. Offenbar fantasierte Microsofts KI-Assistent in diesem Zusammenhang auch über Ausschreitungen während dieses nicht existenten Spiels. Die Polizisten stuften auf Basis der von Copilot erhaltenen Informationen die Partie Aston Villa gegen Maccabi Tel Aviv als Hochrisikospiel ein. In der Folge wurde Fans der israelischen Mannschaft der Zutritt zum Stadion verwehrt, berichtet
TheVerge (Paywall, via
WindowsCentral).
Wer ist schuld?
Der örtliche Polizeichef bestritt zunächst, dass seine Einsatzkräfte KI genutzt haben, um den Risikobericht für das Spiel zu erstellen. Zunächst behauptete er, die Beamten seien falschen Informationen aus Social Media aufgesessen. Später gab er jedoch zu, dass die Fehleinschätzung auf Basis der Informationen aus Microsoft Copilot getroffen wurde.
Die Schuldfrage ist für mich schnell geklärt: Faule und schlampige Polizisten haben ihren Job nicht ordentlich gemacht. Der Fingerzeig auf Microsoft ist selbstverständlich dennoch berechtigt. Wer derart laut ins Marketinghorn bläst und voreilig die Hinweise entfernt, die vor möglicherweise fehlerhaften Informationen warnen, hat es mehr als verdient, wenn ihm derartige Kapriolen mit vollem Gewicht auf die Füße fallen.
Gegenüber
Business Insider behauptet ein Microsoft-Sprecher zu diesem Vorfall: „Copilot kombiniert Informationen aus mehreren Webquellen zu einer einzigen Antwort mit verlinkten Zitaten. Es informiert die Nutzer darüber, dass sie mit einem KI-System interagieren, und fordert sie auf, die Quellen zu überprüfen.“
Blödsinn, das genaue Gegenteil ist der Fall. Microsoft versucht, die Copilot-Nutzer dazu zu erziehen, dem KI-Bot blind zu vertrauen. Hinweise auf mögliche Fehler gibt es nicht mehr. Quellen werden zwar aufgeführt, aber die Nutzer werden in keiner Weise ermutigt, diese zu besuchen. Das System der KI-Assistenten ist auf Content-Diebstahl aufgebaut. Da sollte vielleicht mal jemand ermitteln.
quelle: drwindows.de