Sam Altman als Schiedsrichter mit Kindern

ChatGPT erkennt Teenager automatisch: Was OpenAI jetzt heimlich analysiert

Die neue Model Spec führt eine KI-basierte Alterserkennung ein, um Minderjährige vor psychischen Risiken und ungesunden Bindungen zu schützen.

Andreas Becker Nano Banana
Sam Altman als Schiedsrichter mit Kindern

OpenAI führt umfassende Sicherheitsrichtlinien für Jugendliche ein, um psychische Risiken in ChatGPT zu minimieren. Die neuen Maßnahmen ermöglichen eine automatische Alterserkennung und schränken potenziell schädliche Inhalte für Nutzer unter 18 Jahren drastisch ein.

Automatisierte Erkennung und angepasste Verhaltensregeln

Das Unternehmen hat sein internes Regelwerk für das KI-Verhalten, die sogenannte Model Spec, um spezifische Prinzipien für Minderjährige erweitert. Ein zentrales Element ist die Einführung eines Systems zur Altersfrüherkennung. Diese Technik analysiert Sprachmuster und Nutzungszeiten, um Jugendliche zwischen 13 und 17 Jahren zu identifizieren, selbst wenn diese kein korrektes Geburtsdatum hinterlegt haben.

Sobald das System einen minderjährigen Nutzer vermutet, greifen restriktivere Filter. Die KI wechselt in einen Modus, der zwar hilfsbereit bleibt, aber klare Grenzen zieht. OpenAI betont, dass die Sicherheit der Jugendlichen Vorrang vor der freien Meinungsäußerung oder der funktionalen Effizienz hat. Erwachsene, die fälschlicherweise als minderjährig eingestuft werden, können ihr Alter nachträglich durch offizielle Dokumente verifizieren.

Anzeige

Verbot von Rollenspielen und psychologische Prävention

Die neuen Richtlinien untersagen explizit die Teilnahme an sexuellen oder romantischen Rollenspielen. Unter Roleplay versteht man das Einnehmen fiktiver Charaktere in einem Dialog, was bei Jugendlichen oft zur Entwicklung einer ungesunden emotionalen Bindung an die Maschine führte. Zudem blockiert die Software künftig Anfragen zu gefährlichen Mutproben oder Inhalten, die ungesunde Körperideale fördern.

Bei Anzeichen von psychischen Krisen oder Suizidgedanken reagiert das System mit standardisierten Protokollen. Statt Ratschläge zu erteilen, verweist ChatGPT direkt auf professionelle Hilfsangebote wie Krisen-Hotlines. Das Modell ist darauf programmiert, Jugendliche aktiv dazu zu ermutigen, das Gespräch mit Eltern oder anderen Vertrauenspersonen im realen Leben zu suchen.

Politischer Druck und Marktumfeld

Hintergrund der Verschärfung ist unter anderem das kalifornische Gesetz SB 243, welches Betreiber von Chatbots dazu verpflichtet, den Schutz der psychischen Gesundheit von Kindern sicherzustellen. Auch der Konkurrent Anthropic zieht nach und entwickelt Systeme, um Minderjährige gänzlich von der Nutzung seines Modells Claude auszuschließen. Gesetzgeber weltweit erhöhen derzeit die Anforderungen an die Transparenz und die moralische Integrität von KI-Systemen.

Für Eltern wurden zusätzliche Kontrollfunktionen freigeschaltet. Diese erlauben es, Konten zu verknüpfen, Nutzungszeiten festzulegen und Benachrichtigungen zu erhalten, wenn die KI akute Belastungen beim Nachwuchs feststellt. Damit reagiert die Branche auf tragische Einzelfälle, in denen Jugendliche eine tiefe Abhängigkeit zu digitalen Begleitern entwickelten.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.