ChatGPT erkennt Teenager automatisch: Was OpenAI jetzt heimlich analysiert
Die neue Model Spec führt eine KI-basierte Alterserkennung ein, um Minderjährige vor psychischen Risiken und ungesunden Bindungen zu schützen.

OpenAI führt umfassende Sicherheitsrichtlinien für Jugendliche ein, um psychische Risiken in ChatGPT zu minimieren. Die neuen Maßnahmen ermöglichen eine automatische Alterserkennung und schränken potenziell schädliche Inhalte für Nutzer unter 18 Jahren drastisch ein.
Automatisierte Erkennung und angepasste Verhaltensregeln
Das Unternehmen hat sein internes Regelwerk für das KI-Verhalten, die sogenannte Model Spec, um spezifische Prinzipien für Minderjährige erweitert. Ein zentrales Element ist die Einführung eines Systems zur Altersfrüherkennung. Diese Technik analysiert Sprachmuster und Nutzungszeiten, um Jugendliche zwischen 13 und 17 Jahren zu identifizieren, selbst wenn diese kein korrektes Geburtsdatum hinterlegt haben.
Sobald das System einen minderjährigen Nutzer vermutet, greifen restriktivere Filter. Die KI wechselt in einen Modus, der zwar hilfsbereit bleibt, aber klare Grenzen zieht. OpenAI betont, dass die Sicherheit der Jugendlichen Vorrang vor der freien Meinungsäußerung oder der funktionalen Effizienz hat. Erwachsene, die fälschlicherweise als minderjährig eingestuft werden, können ihr Alter nachträglich durch offizielle Dokumente verifizieren.
Anzeige
Verbot von Rollenspielen und psychologische Prävention
Die neuen Richtlinien untersagen explizit die Teilnahme an sexuellen oder romantischen Rollenspielen. Unter Roleplay versteht man das Einnehmen fiktiver Charaktere in einem Dialog, was bei Jugendlichen oft zur Entwicklung einer ungesunden emotionalen Bindung an die Maschine führte. Zudem blockiert die Software künftig Anfragen zu gefährlichen Mutproben oder Inhalten, die ungesunde Körperideale fördern.
Bei Anzeichen von psychischen Krisen oder Suizidgedanken reagiert das System mit standardisierten Protokollen. Statt Ratschläge zu erteilen, verweist ChatGPT direkt auf professionelle Hilfsangebote wie Krisen-Hotlines. Das Modell ist darauf programmiert, Jugendliche aktiv dazu zu ermutigen, das Gespräch mit Eltern oder anderen Vertrauenspersonen im realen Leben zu suchen.
Politischer Druck und Marktumfeld
Hintergrund der Verschärfung ist unter anderem das kalifornische Gesetz SB 243, welches Betreiber von Chatbots dazu verpflichtet, den Schutz der psychischen Gesundheit von Kindern sicherzustellen. Auch der Konkurrent Anthropic zieht nach und entwickelt Systeme, um Minderjährige gänzlich von der Nutzung seines Modells Claude auszuschließen. Gesetzgeber weltweit erhöhen derzeit die Anforderungen an die Transparenz und die moralische Integrität von KI-Systemen.
Für Eltern wurden zusätzliche Kontrollfunktionen freigeschaltet. Diese erlauben es, Konten zu verknüpfen, Nutzungszeiten festzulegen und Benachrichtigungen zu erhalten, wenn die KI akute Belastungen beim Nachwuchs feststellt. Damit reagiert die Branche auf tragische Einzelfälle, in denen Jugendliche eine tiefe Abhängigkeit zu digitalen Begleitern entwickelten.