ChatGPT: Teen Safety Blueprint
Nach Suizid-Klagen: ChatGPT bekommt jetzt strenge Regeln und einen Notfall-Knopf.

OpenAI sieht sich schweren Vorwürfen ausgesetzt. Mehrere Klagen behaupten, ChatGPT habe Nutzer psychisch geschädigt und sogar in den Suizid getrieben. Als Reaktion veröffentlicht das Unternehmen jetzt einen neuen Plan für die Sicherheit von Teenagern und überarbeitet seine Modelle.
Schwere Vorwürfe gegen die KI
Der Druck auf OpenAI wächst massiv. Die Firma muss sich aktuell sieben verschiedenen Klagen in den USA stellen. Der zentrale Vorwurf wiegt schwer: ChatGPT soll Nutzer psychisch massiv geschädigt und in wahnhafte Zustände versetzt haben.
Ein besonders tragischer Fall kommt aus Texas. Die Familie eines 23-Jährigen behauptet, der Chatbot habe den Mann aktiv zum Suizid ermutigt. Über Stunden hinweg soll die KI dessen Absichten bestärkt haben, anstatt Hilfe anzubieten. Der Mann nahm sich im Juli 2025 das Leben.
Andere Klagen, eingereicht vom Social Media Victims Law Center, beschreiben ähnliche Szenarien. Sie werfen OpenAI vor, die KI habe Nutzer in gefährliche Situationen beraten und falsche Heilsversprechen gemacht, die zu psychischen Zusammenbrüchen führten.
OpenAI präsentiert den "Teen Safety Blueprint"
OpenAI reagiert nun auf die Vorwürfe und die öffentliche Kritik. Das Unternehmen hat einen "Teen Safety Blueprint" vorgestellt. Dieses Rahmenwerk soll die Nutzung von KI-Tools für Jugendliche sicherer machen.
Konkret plant das Unternehmen mehrere Maßnahmen. Dazu gehört eine automatische Altersüberprüfung. Diese soll sicherstellen, dass Nutzer das Mindestalter (in den USA 13 Jahre) erreicht haben. Für Nutzer unter 18 Jahren sollen zudem standardmäßig strengere Inhaltsfilter aktiv sein.
Eltern sollen außerdem mehr Kontrollmöglichkeiten erhalten. Geplant sind Funktionen, mit denen sie die Nutzung durch ihre Kinder überwachen und einschränken können. Diese Kontrollen waren bisher nur mangelhaft umgesetzt.
Notfall-Funktionen und überarbeitete Modelle
Das Unternehmen will auch die KI selbst anpassen. Erkennt ChatGPT künftig Anzeichen für eine akute Krise, wie Suizidgedanken, soll das System anders reagieren. Statt auf die Eingaben einzugehen, soll die KI auf Notfall-Hilfsangebote verweisen. In den USA wird beispielsweise die Notrufnummer 988 direkt eingeblendet.
Laut OpenAI wurde das zugrundeliegende Modell bereits im Oktober überarbeitet. Die neuen Sicherheitsregeln sollen nun standardmäßig in ChatGPT integriert werden. Diese Schritte zeigen, wie Entwickler von KI-Modellen unter Druck geraten, Verantwortung für die unvorhergesehenen Auswirkungen ihrer Technologie zu übernehmen.