Warum OpenAI das neue GPT-5.3 Codex heimlich drosselt
Ein Sicherheitsmechanismus leitet komplexe Programmieraufgaben automatisch auf ein schwächeres Modell um, was Entwickler zunehmend frustriert.

Entwickler klagen über Leistungseinbrüche bei OpenAIs neuem Programmier-Modell GPT-5.3 Codex. Der Grund ist ein drastischer Schutzmechanismus: Bei Verdacht auf missbräuchliche Code-Generierung leitet das System Anfragen unbemerkt auf schwächere Vorgängermodelle um.
Frust in der Entwicklergemeinde
Wenige Tage nach der Veröffentlichung von GPT-5.3 Codex häufen sich die Beschwerden über drastische Qualitätsschwankungen. Auf Plattformen wie Reddit und Hacker News berichten Programmierer, dass das Modell komplexe Anfragen fehlerhaft beantwortet. Das System, das laut Herstellerangaben vollständige Softwarearchitekturen entwerfen soll, scheitert in einigen Fällen plötzlich an simplen Skripten.
Der Entwickler Tibor Blaho brachte die Diskussion auf der Plattform X ins Rollen. Er dokumentierte, dass die API bestimmte Prompts nicht mit dem vollen Parameterumfang verarbeitet. Stattdessen fällt die Ausführung auf ein älteres Modell zurück, dessen Fähigkeiten spürbar limitiert sind.
Twitter Beitrag - Cookies links unten aktivieren.
If you're having issues with Codex, your account might have been rerouted to a different, less-capable reasoning model
— Tibor Blaho (@btibor91) February 10, 2026
OpenAI confirmed this happens when their systems detect potential cyber activity as part of their efforts to protect against cyber abuse, and you can go to… pic.twitter.com/jcP0bJRMxm
Zwangsumleitung als Sicherheitsfunktion
OpenAI bestätigte dieses Verhalten mittlerweile offiziell in einem Kommentar zum GitHub-Issue Nummer 11189. Das Unternehmen integrierte einen dynamischen Filter, der den Kontext der Eingabe vor der Verarbeitung analysiert. Erkennt der Algorithmus ein potenzielles Risiko für die Cybersicherheit, blockiert er den Prozess nicht mit einer Fehlermeldung. Stattdessen routet der Server den Prompt auf ein weniger leistungsfähiges Modell, sehr wahrscheinlich eine Variante von GPT-5.2, um.
Diese Maßnahme reagiert auf die weitreichenden autonomen Fähigkeiten der neuen Software. GPT-5.3 Codex schreibt nicht nur isolierte Code-Snippets, sondern analysiert Codebasen und führt Skripte eigenständig aus. Das automatische Downgrade soll verhindern, dass Akteure das System für die automatisierte Erstellung von Schadsoftware oder für das Aufspüren von Schwachstellen in fremden Netzwerken nutzen. Die exakten Kriterien für das Eingreifen des Filters hält der Hersteller jedoch unter Verschluss.
Anzeige
Freischaltung über Verifizierung
Für professionelle Sicherheitsforscher und Systemadministratoren bietet der Konzern parallel das Programm "Trusted Access for Cyber" an. Über ein spezielles Web-Portal müssen Anwender ihre Identität und den legitimen Einsatzzweck nachweisen. Nach einer erfolgreichen Prüfung deaktiviert OpenAI das automatische Downgrade für das jeweilige Konto. Erst dann steht der volle Funktionsumfang für professionelle Penetrationstests oder Code-Audits zur Verfügung.
Der gewählte Ansatz offenbart die Schwierigkeiten bei der Absicherung aktueller Systeme. Ein stillschweigendes Rerouting vermeidet zwar direkte Hinweise an Angreifer, wie Sperren umgangen werden können, führt aber unweigerlich zu Intransparenz bei legitimen Nutzern. In der Praxis muss sich nun zeigen, ob der Erkennungsmechanismus präzise genug arbeitet oder ob harmlose Code-Anfragen regelmäßig durch falsch-positive Einstufungen ausgebremst werden.