OpenAI stuft neue Codex-KI erstmals als hohes Sicherheitsrisiko
Sam Altman bestätigt massive Fähigkeiten bei der autonomen Erstellung von Cyberangriffen und komplexen Exploits.

Sam Altman hat für den kommenden Monat umfassende Updates für die Coding-KI Codex angekündigt. Erstmals stuft OpenAI dabei ein Modell in die Kategorie „High“ für Cybersicherheit ein, was eine signifikante Steigerung autonomer Fähigkeiten bei der Schwachstellensuche markiert.
Alarmstufe im Preparedness Framework
Der OpenAI-CEO bestätigte via X, dass im Februar eine Reihe neuer Veröffentlichungen rund um Codex anstehen. Diese Modelle bilden das technische Rückgrat für Anwendungen wie GitHub Copilot. Die eigentliche Nachricht verbirgt sich jedoch in der sicherheitstechnischen Einordnung dieser neuen Generation.
Laut Altman werden die kommenden Modelle im internen „Preparedness Framework“ von OpenAI die Stufe „High“ im Bereich Cybersecurity erreichen. Dieses Framework dient dazu, katastrophale Risiken in Kategorien wie chemische Waffen, nukleare Bedrohungen und eben Cybersicherheit zu bewerten. Bisherige Modelle wie GPT-5 bewegten sich meist in den Kategorien „Low“ oder „Medium“. Der Sprung auf „High“ signalisiert einen technologischen Wendepunkt.
Twitter Beitrag - Cookies links unten aktivieren.
We have a lot of exciting launches related to Codex coming over the next month, starting next week. We hope you will be delighted.
— Sam Altman (@sama) January 23, 2026
We are going to reach the Cybersecurity High level on our preparedness framework soon. We have been getting ready for this.
Cybersecurity is tricky…
Definition der neuen Gefahrenklasse
Die Einstufung als „High“ ist keine Marketing-Übertreibung, sondern definiert präzise technische Fähigkeiten. Ein Modell dieser Kategorie bietet Angreifern einen extremen Vorteil im Vergleich zu existierenden Tools ohne KI. Es ist in der Lage, Exploits zu entwickeln oder Schwachstellen zu identifizieren, für die bisher hochspezialisiertes Expertenwissen notwendig war.
Die KI fungiert hierbei nicht mehr nur als Assistent, sondern als potenter Kraftverstärker für Cyberangriffe. Das System kann Aufgaben übernehmen, die die Arbeitslast eines Angreifers drastisch reduzieren. Dies betrifft insbesondere das automatisierte Schreiben von Schadcode oder das Umgehen von Sicherheitsmechanismen in Softwarearchitekturen.
Anzeige
Sicherheitsbremse und Board-Kontrolle
Mit dem Erreichen dieser Warnstufe greifen bei OpenAI automatische Sicherheitsmechanismen. Das Framework schreibt vor, dass Modelle der Stufe „High“ nicht ohne umfassende Sicherheitsmaßnahmen (Red Teaming) veröffentlicht werden dürfen. Zudem muss die Unternehmensführung und das Board der Veröffentlichung explizit zustimmen.
Sollte ein Modell jemals die höchste Stufe „Critical“ erreichen, wäre eine Veröffentlichung laut den aktuellen Statuten komplett untersagt, bis effektive Gegenmaßnahmen entwickelt sind. Die aktuelle Ankündigung zeigt, wie schmal der Grat zwischen nützlicher Programmierhilfe und gefährlichem Hacking-Werkzeug geworden ist.
Der doppelte Schneide der Autonomie
Experten warnen seit Längerem vor dieser Entwicklung. Die neuen Codex-Modelle dürften nicht nur Code vervollständigen, sondern auch als autonome Agenten agieren. Diese Agenten können komplexe Aufgaben über mehrere Schritte hinweg selbstständig lösen.
In der Defensive hilft dies Unternehmen, Sicherheitslücken schneller zu patchen. In der Offensive ermöglicht es jedoch auch weniger talentierten Hackern, komplexe Angriffe durchzuführen. Die kommenden Wochen werden zeigen, ob OpenAI die Waage zwischen Innovation und Sicherheitsrisiko halten kann.