ChatGPT erkannte Amoklauf-Pläne acht Monate im Voraus
OpenAI sperrte das ChatGPT-Konto der Täterin von Tumbler Ridge frühzeitig. Die Polizei erfuhr davon erst nach der Tat.

OpenAI identifizierte die Gewaltfantasien einer späteren Amokläuferin in ChatGPT bereits acht Monate vor der Tat, alarmierte jedoch nicht die Polizei. Wie ein exklusiver Bericht des Wall Street Journal aufdeckt, sperrte das Unternehmen das Konto der Nutzerin lediglich intern.
Algorithmen als Warnsystem
Der Fall der 18-jährigen Täterin im kanadischen Tumbler Ridge rückt die Überwachungsmechanismen moderner KI-Plattformen in den Fokus. Die Betreiber setzen komplexe Sicherheitsarchitekturen ein, welche automatisierte Classifier mit menschlichen Moderatoren kombinieren, um Millionen von Chat-Verläufen in Echtzeit auf Richtlinienverstöße zu überprüfen.
Bereits im Juni 2025 schlug dieses System bei den Prompts der späteren Täterin an, da die eingegebenen Befehle massiv gegen die Nutzungsbedingungen verstießen.
Das Unternehmen reagierte auf den Verstoß mit einer sofortigen und permanenten Deaktivierung des Accounts. Gleichzeitig führten die Sicherheitsteams interne Evaluierungen durch, ob sie die kanadische Bundespolizei RCMP über das auffällige Nutzerverhalten informieren sollten. Da die Algorithmen und die manuellen Prüfer aus den Datensätzen jedoch keine unmittelbar bevorstehenden, detaillierten Angriffspläne extrahieren konnten, verzichteten die Verantwortlichen aus Gründen des Datenschutzes auf eine behördliche Warnung.
Anzeige
Die Grenzen der semantischen Mustererkennung
Die exakte Kategorisierung toxischer Textinhalte bildet weiterhin eine der größten technischen Hürden bei der Entwicklung von Large Language Models. Die Architektur der neuronalen Netze muss präzise zwischen fiktiven Textentwürfen, therapeutischen Interaktionen und echten physischen Bedrohungen differenzieren. Fehlt den Modellen der reale Kontext des Anwenders, liefert die reine Mustererkennung der Token oft mehrdeutige Ergebnisse. Eine eindeutige Einstufung der tatsächlichen Gefahr ist somit rein maschinell kaum möglich.
Erst nach dem fatalen Amoklauf im Februar 2026, bei dem acht Menschen ihr Leben verloren, nahm OpenAI eigenständig Kontakt zu den Behörden auf und übergab die historischen Chat-Protokolle. Diese zeitliche Verzögerung illustriert das fundamentale Dilemma der Industrie: Ein zu sensibles Meldesystem generiert permanent Fehlalarme und verletzt die Privatsphäre, während eine zu hohe Toleranzgrenze unweigerlich fatale Konsequenzen in der realen Welt nach sich zieht.
Die juristische und technische Aufarbeitung des Vorfalls zwingt die Technologiekonzerne nun dazu, die internen Schwellenwerte für die Kooperation mit Strafverfolgungsbehörden neu zu definieren.