OpenAI stellt »Daybreak« für automatisierte Cyber-Abwehr vor
Daybreak automatisiert die Code-Prüfung und erstellt eigenständig Bedrohungsmodelle. Ein dreistufiges Rechtesystem verhindert potenziellen Missbrauch.

OpenAI veröffentlicht mit »Daybreak« eine spezialisierte Cybersecurity-Initiative, die auf aktuellen KI-Modellen basiert. Damit sollen professionelle Sicherheitsteams Schwachstellen im Code frühzeitig erkennen, Angriffswege validieren und Fehler direkt im Entwicklungsprozess beheben können.
Twitter Beitrag - Cookies links unten aktivieren.
Introducing Daybreak: frontier AI for cyber defenders.
— OpenAI (@OpenAI) May 11, 2026
Daybreak brings together the most capable OpenAI models, Codex, and our security partners to accelerate cyber defense and continuously secure software.
A step toward a future where security teams can move at the speed… pic.twitter.com/AGfXhmJb5E
Automatisierte Gefahrenerkennung im Code
Für die technische Architektur kombiniert der Entwickler das Sprachmodell GPT-5.5 mit der agentischen Umgebung Codex Security. Diese Struktur erstellt zunächst ein anpassbares Bedrohungsmodell direkt aus dem jeweiligen Software-Repository. Daraufhin richtet das System seinen analytischen Fokus gezielt auf realistische Angriffspfade sowie kritische Code-Passagen. Verteidiger reduzieren durch diesen Schritt die sonst stundenlange Analyse auf wenige Minuten und nutzen Token deutlich effizienter.
Neben der reinen Identifikation generiert die Software auch konkrete Patches direkt in den betroffenen Repositories. Speziell isolierte Umgebungen dienen dabei der Validierung von wahrscheinlichen Schwachstellen, um reproduzierbare Fehler zuverlässig von irrelevanten Warnungen zu trennen. Alle generierten Fixes senden im Anschluss auditierbare Nachweise an die primären Systeme zurück.
Anzeige
Dreistufiges Modell für Zugriffsrechte
Da tiefgreifende Code-Analysen immer ein potenzielles Missbrauchsrisiko bergen, etabliert OpenAI gezielt verschiedene Zugriffsstufen. Den Einstieg markiert das reguläre Modell GPT-5.5, welches Standard-Schutzmaßnahmen für alltägliche Entwicklungsaufgaben beinhaltet. Für verifizierte Abwehrmaßnahmen in autorisierten Umgebungen existiert eine erweiterte Version mit dem sogenannten Trusted Access.
Besonders spezialisierte Aufgaben wie autorisiertes Red Teaming oder Penetrationstests erfordern hingegen noch weitreichendere Eingriffe. Genau dafür schaltet der Anbieter die Variante GPT-5.5-Cyber frei, welche ein besonders permissives Verhalten erlaubt. Strenge Verifizierungen und Kontrollen auf Account-Ebene sichern diese höchste Stufe konsequent ab.