OpenAI startet GPT-5.4-Cyber für Hacker-Abwehr
Das neue Sprachmodell fokussiert sich auf Cybersicherheit. Verifizierte Experten erhalten Zugriff auf Funktionen wie Reverse-Engineering.

OpenAI veröffentlicht GPT-5.4-Cyber. Das spezialisierte Modell zielt exklusiv auf Cybersicherheit ab und senkt die üblichen Ablehnungsraten für legitime Aufgaben. Parallel öffnet der Entwickler ein erweitertes Zugangsprogramm für verifizierte Experten.
Weniger Filter für tiefe Code-Analysen
Herkömmliche KIs verweigern oft den Dienst, wenn Nutzer nach potenziellem Schadcode suchen. GPT-5.4-Cyber umgeht diese Hürde für authentifizierte Anwender gezielt. Das Modell beherrscht beispielsweise das Reverse-Engineering von Binärdateien auf einem sehr hohen Niveau.
Sicherheitsprofis analysieren mit dieser Funktion kompilierte Software direkt auf Malware. Sie prüfen die Robustheit der Systeme, ohne den ursprünglichen Quellcode zu benötigen. Dieser Schritt beschleunigt die Suche nach Sicherheitslücken im professionellen Alltag enorm.
Anzeige
Mehrstufige Verifizierung kontrolliert den Zugang
Die erweiterten Funktionen stehen der Allgemeinheit nicht zur Verfügung. Ein mehrstufiges Programm namens Trusted Access for Cyber regelt die Freigabe und den Zugriff auf die Systeme. Interessierte Fachleute weisen ihre Identität auf einer speziellen Plattform nach.
Unternehmen und Einzelpersonen erhalten nach der strengen Prüfung eine Einstufung in verschiedene Berechtigungsstufen. In den höchsten Stufen agiert die künstliche Intelligenz deutlich freier und blockiert weniger Anfragen. Diese Freigaben erfordern allerdings eine fast vollständige Transparenz bei der Nutzung.
Bestimmte Datenschutzfunktionen, die den Einblick des Anbieters in die Prompts verhindern, bleiben für die unzensierten Modelle vorerst gesperrt. Der Entwickler koppelt die steigenden Fähigkeiten der Modelle an strengere Kontrollmechanismen für die Nutzer.
Automatisierte Fehlerbehebung im Hintergrund
Neben dem neuen Sprachmodell liefert das System Codex Security erste handfeste Ergebnisse. Die Software überwacht Codebasen kontinuierlich und schlägt Programmierern eigenständig passende Reparaturen vor. Entwickler erhalten direkt beim Schreiben des Codes konkretes Feedback zu potenziellen Gefahren.
Seit dem Start der Beta-Phase schloss diese KI bereits über 3.000 kritische und hochgradige Schwachstellen. Die Cybersicherheit rückt damit weg von punktuellen Kontrollen hin zu einer permanenten Risikoüberwachung. Zukünftige Modelle erfordern laut Entwickler noch weitreichendere Schutzmaßnahmen, um die sichere Skalierung der Technologie zu gewährleisten.