Sam Altman überlegt ob vor einem low power und high power button.

Warum OpenAI das neue GPT-5.3 Codex heimlich drosselt

Ein Sicherheitsmechanismus leitet komplexe Programmieraufgaben automatisch auf ein schwächeres Modell um, was Entwickler zunehmend frustriert.

Andreas Becker Nano Banana
Sam Altman überlegt ob vor einem low power und high power button.

Entwickler klagen über Leistungseinbrüche bei OpenAIs neuem Programmier-Modell GPT-5.3 Codex. Der Grund ist ein drastischer Schutzmechanismus: Bei Verdacht auf missbräuchliche Code-Generierung leitet das System Anfragen unbemerkt auf schwächere Vorgängermodelle um.

Frust in der Entwicklergemeinde

Wenige Tage nach der Veröffentlichung von GPT-5.3 Codex häufen sich die Beschwerden über drastische Qualitätsschwankungen. Auf Plattformen wie Reddit und Hacker News berichten Programmierer, dass das Modell komplexe Anfragen fehlerhaft beantwortet. Das System, das laut Herstellerangaben vollständige Softwarearchitekturen entwerfen soll, scheitert in einigen Fällen plötzlich an simplen Skripten.

Der Entwickler Tibor Blaho brachte die Diskussion auf der Plattform X ins Rollen. Er dokumentierte, dass die API bestimmte Prompts nicht mit dem vollen Parameterumfang verarbeitet. Stattdessen fällt die Ausführung auf ein älteres Modell zurück, dessen Fähigkeiten spürbar limitiert sind.

Twitter Beitrag - Cookies links unten aktivieren.

Zwangsumleitung als Sicherheitsfunktion

OpenAI bestätigte dieses Verhalten mittlerweile offiziell in einem Kommentar zum GitHub-Issue Nummer 11189. Das Unternehmen integrierte einen dynamischen Filter, der den Kontext der Eingabe vor der Verarbeitung analysiert. Erkennt der Algorithmus ein potenzielles Risiko für die Cybersicherheit, blockiert er den Prozess nicht mit einer Fehlermeldung. Stattdessen routet der Server den Prompt auf ein weniger leistungsfähiges Modell, sehr wahrscheinlich eine Variante von GPT-5.2, um.

Diese Maßnahme reagiert auf die weitreichenden autonomen Fähigkeiten der neuen Software. GPT-5.3 Codex schreibt nicht nur isolierte Code-Snippets, sondern analysiert Codebasen und führt Skripte eigenständig aus. Das automatische Downgrade soll verhindern, dass Akteure das System für die automatisierte Erstellung von Schadsoftware oder für das Aufspüren von Schwachstellen in fremden Netzwerken nutzen. Die exakten Kriterien für das Eingreifen des Filters hält der Hersteller jedoch unter Verschluss.

Anzeige

Freischaltung über Verifizierung

Für professionelle Sicherheitsforscher und Systemadministratoren bietet der Konzern parallel das Programm "Trusted Access for Cyber" an. Über ein spezielles Web-Portal müssen Anwender ihre Identität und den legitimen Einsatzzweck nachweisen. Nach einer erfolgreichen Prüfung deaktiviert OpenAI das automatische Downgrade für das jeweilige Konto. Erst dann steht der volle Funktionsumfang für professionelle Penetrationstests oder Code-Audits zur Verfügung.

Der gewählte Ansatz offenbart die Schwierigkeiten bei der Absicherung aktueller Systeme. Ein stillschweigendes Rerouting vermeidet zwar direkte Hinweise an Angreifer, wie Sperren umgangen werden können, führt aber unweigerlich zu Intransparenz bei legitimen Nutzern. In der Praxis muss sich nun zeigen, ob der Erkennungsmechanismus präzise genug arbeitet oder ob harmlose Code-Anfragen regelmäßig durch falsch-positive Einstufungen ausgebremst werden.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.