OpenAI und das Pentagon: Die Wahrheit über den neuen KI-Vertrag
Nach dem Rauswurf von Anthropic sichert sich OpenAI den Militär-Deal. Doch die angepriesenen Sicherheitsregeln haben einen Haken.

Die US-Regierung schließt das KI-Unternehmen Anthropic von Regierungsaufträgen aus, da sich dieses weigert, seine Technologie für autonome Waffen freizugeben. Fast zeitgleich unterzeichnet OpenAI ein neues Abkommen mit dem Pentagon, welches sich auch weigert, seine Technologie für autonome Waffen freizugeben. Wie kann das sein?
OpenAI verteidigt den Militär-Deal
Das US-Verteidigungsministerium stufte Anthropic kürzlich als "Risiko für die Lieferkette" ein, was zum sofortigen Stopp aller Regierungsaufträge führte. OpenAI nutzte diese Lücke umgehend und positionierte sich als neuer Partner des Pentagons. Um die aufkommende Kritik an diesem schnellen Vorgehen zu dämpfen, veröffentlichte das Unternehmen ein detailliertes Statement über die Bedingungen der Zusammenarbeit.
Twitter Beitrag - Cookies links unten aktivieren.
Yesterday we reached an agreement with the Department of War for deploying advanced AI systems in classified environments, which we requested they make available to all AI companies.
— OpenAI (@OpenAI) February 28, 2026
We think our deployment has more guardrails than any previous agreement for classified AI…
Darin legen die Entwickler ihre Strategie für den Einsatz in geheimen militärischen Netzwerken offen. Im Gegensatz zu lokalen Installationen stellt OpenAI seine Modelle ausschließlich über eine strikt kontrollierte Cloud-Umgebung zur Verfügung. Diese Architektur soll verhindern, dass die Software direkt in Waffensystemen oder auf ungesicherten Endgeräten läuft.
Zusätzlich integriert das Unternehmen eigens sicherheitsüberprüftes Personal in die Abläufe des Militärs. Diese Ingenieure überwachen die Nutzung der Systeme kontinuierlich. Laut der Mitteilung geht das Management sogar so weit zu behaupten, das eigene Abkommen biete deutlich mehr Schutzmechanismen als die ursprünglichen Vereinbarungen von Anthropic.
Anzeige
Ein vertraglicher Widerspruch
Diese Darstellung sorgt bei Analysten für große Verwirrung. Es drängt sich unweigerlich die Frage auf, warum das Pentagon einer Kooperation mit OpenAI unter angeblich noch strengeren Vorschriften zustimmen sollte. Immerhin scheiterte die Zusammenarbeit mit Anthropic exakt an solchen ethischen Grenzen. Ein plötzliches Einlenken des Militärs an dieser Stelle erscheint absolut unlogisch.
Die Aufklärung dieses Widerspruchs findet sich im Kleingedruckten der jeweiligen Verträge. Anthropic pochte auf eine unüberwindbare rechtliche Grenze. Das Unternehmen forderte ein absolutes, schriftlich fixiertes Verbot für die Nutzung in autonomen Waffen und zur Massenüberwachung. Das Pentagon lehnte dies entschieden ab und verlangte stattdessen die pauschale Erlaubnis für "alle rechtmäßigen Zwecke".
OpenAI hingegen stimmte exakt dieser weitreichenden Formulierung zu. Das Unternehmen unterzeichnete einen Vertrag, der dem Militär die KI-Nutzung für sämtliche legale Zwecke gestattet. Die öffentlich beworbenen Schutzmechanismen von OpenAI basieren somit nicht auf strikten rechtlichen Verboten, sondern rein auf technischen Kontrollen und der eigenen Firmenpolitik.
Das Pentagon hat seine ursprünglichen vertraglichen Forderungen also vollständig durchgesetzt, während OpenAI den Kompromiss als eigenen Erfolg kommuniziert. Damit bleibt abzuwarten, wie sich diese rein technischen Sicherheitsvorkehrungen in der praktischen Zusammenarbeit mit dem Militär bewähren.