Codex Security: OpenAI veröffentlicht neuen KI-Agenten für sicheren Code
Das System findet komplexe Schwachstellen im Quellcode und liefert direkt die passenden Lösungsvorschläge für Entwickler.

OpenAI hat mit Codex Security einen neuen KI-Sicherheitsagenten als Research Preview veröffentlicht. Das System analysiert Quellcode auf komplexe Schwachstellen, validiert diese vollautomatisch und liefert Entwicklern direkte Lösungsvorschläge zur sofortigen Behebung.
Tiefer Kontext statt irrelevanter Fehlalarme
Bisherige KI-Sicherheitsscanner scheitern in der Praxis oft an einer unübersichtlichen Flut von Warnungen. Sie markieren unkritische Codezeilen als Risiko und zwingen Entwickler zu einer zeitaufwendigen manuellen Überprüfung.
Genau dieses Problem adressiert das neue System.
Codex Security baut ein umfassendes Verständnis für die Architektur und den spezifischen Kontext eines Softwareprojekts auf. Dadurch unterscheidet der Agent zuverlässig zwischen theoretischen und tatsächlichen Risiken. Entwickler erhalten im Anschluss nur noch überprüfte Warnungen mit einer extrem hohen Relevanz. Das System belässt es dabei nicht bei einem simplen Fehler-Hinweis. Der Agent liefert den passenden Patch direkt mit, um die entdeckte Lücke im Code sofort zu schließen.
Quelle: OpenAI
Agentic Reasoning gegen den Flaschenhals
Die technische Basis bilden die aktuellen Frontier-Modelle von OpenAI, kombiniert mit automatisierten Validierungsverfahren. Diese Arbeitsweise wird als Agentic Reasoning bezeichnet. Der Agent arbeitet sich dabei logisch durch den Code und verknüpft verschiedene Parameter, um auch versteckte Schwachstellen aufzuspüren.
Das beschleunigt den gesamten Entwicklungsprozess messbar.
Während Code-Assistenten das Schreiben von Software immer schneller machen, entwickelte sich die anschließende Sicherheitsprüfung zunehmend zum kritischen Engpass. Codex Security automatisiert nun auch diesen essenziellen Schritt.
Anzeige
Erfolgreiche Testphase als Projekt Aardvark
Vor der jetzigen Veröffentlichung lief die Entwicklung im vergangenen Jahr unter dem Codenamen "Aardvark" in einer geschlossenen Beta. Eine kleine Gruppe externer Tester und das interne Sicherheitsteam von OpenAI erprobten das System dabei unter harten Realbedingungen.
Mit Erfolg. Der Agent entdeckte in frühen Testläufen bereits kritische Fehler wie Server-Side Request Forgery (SSRF) und komplexe Authentifizierungsprobleme.
Diese schwerwiegenden Lücken konnten die Entwickler dank der präzisen und verwertbaren Berichte innerhalb weniger Stunden patchen. Auch die Präzision der Scans auf denselben Code-Repositories verbesserte sich im Laufe der Beta laut OpenAI kontinuierlich. Die Research Preview richtet sich ab sofort an alle Entwickler, die ihre Softwarearchitektur effizienter absichern möchten. Ein konkretes Veröffentlichungsdatum für die finale Version gibt es aktuell noch nicht.