OpenAI startet "Trusted Access" für bessere Cyber-Abwehr
Sicherheitsforscher erhalten exklusiven Zugriff auf Top-Modelle und 10 Millionen Dollar Förderung für defensive Projekte.

OpenAI reagiert auf die wachsenden Fähigkeiten seiner KI-Modelle mit dem neuen Programm „Trusted Access for Cyber“. Sicherheitsforscher erhalten exklusiven Zugriff auf leistungsstarke Modelle und werden mit 10 Millionen US-Dollar in API-Credits unterstützt.
Exklusiver Zugang für Verteidiger
OpenAI öffnet seine stärksten Modelle gezielt für ausgewählte Cybersicherheitsexperten. Das Ziel liegt darin, Sicherheitslücken zu schließen, bevor böswillige Akteure diese durch Automatisierung ausnutzen können.
Durch das Programm erhalten qualifizierte Partner Zugriff auf KI-Funktionen, die der breiten Öffentlichkeit aus Sicherheitsgründen vorenthalten bleiben. Dieser Informationsvorsprung soll das Gleichgewicht dauerhaft zugunsten der Verteidiger verschieben.
Twitter Beitrag - Cookies links unten aktivieren.
This is our first model that hits "high" for cybersecurity on our preparedness framework.
— Sam Altman (@sama) February 5, 2026
We are piloting a Trusted Access framework, and committing $10 million in API credits to accelerate cyber defense.https://t.co/vN8KpIuzjt
Finanzielle Unterstützung für die Community
Neben dem technischen Zugang stellt das Unternehmen einen Fonds von 10 Millionen US-Dollar bereit. Diese Summe wird in Form von API-Credits an Entwickler, Forscher und Organisationen vergeben.
Gefördert werden Projekte, die defensive Sicherheitslösungen entwickeln oder die Resilienz kritischer Infrastrukturen stärken. Damit senkt OpenAI die finanzielle Hürde für den Einsatz modernster KI-Technologie in der IT-Sicherheit drastisch.
Anzeige
Neue Risiken durch GPT-5.3-Codex
Anlass für die Initiative ist unter anderem die Veröffentlichung des neuen Modells GPT-5.3-Codex. Das System besitzt laut OpenAI erstmals Fähigkeiten im Bereich der offensiven Cybersicherheit, die intern als „hoch“ eingestuft werden.
Die gesteigerte Coding-Leistung birgt das Risiko, dass Angreifer die KI für komplexere und schnellere Cyberattacken missbrauchen. Das „Trusted Access“-Programm dient hier als direkte organisatorische Gegenmaßnahme zur Risikominimierung.