Sam Altman weiß nicht was machen soll

OpenAI und das Pentagon: Die Wahrheit über den neuen KI-Vertrag

Nach dem Rauswurf von Anthropic sichert sich OpenAI den Militär-Deal. Doch die angepriesenen Sicherheitsregeln haben einen Haken.

Andreas Becker Nano Banana
Sam Altman weiß nicht was machen soll

Die US-Regierung schließt das KI-Unternehmen Anthropic von Regierungsaufträgen aus, da sich dieses weigert, seine Technologie für autonome Waffen freizugeben. Fast zeitgleich unterzeichnet OpenAI ein neues Abkommen mit dem Pentagon, welches sich auch weigert, seine Technologie für autonome Waffen freizugeben. Wie kann das sein?

OpenAI verteidigt den Militär-Deal

Das US-Verteidigungsministerium stufte Anthropic kürzlich als "Risiko für die Lieferkette" ein, was zum sofortigen Stopp aller Regierungsaufträge führte. OpenAI nutzte diese Lücke umgehend und positionierte sich als neuer Partner des Pentagons. Um die aufkommende Kritik an diesem schnellen Vorgehen zu dämpfen, veröffentlichte das Unternehmen ein detailliertes Statement über die Bedingungen der Zusammenarbeit.

Twitter Beitrag - Cookies links unten aktivieren.

Darin legen die Entwickler ihre Strategie für den Einsatz in geheimen militärischen Netzwerken offen. Im Gegensatz zu lokalen Installationen stellt OpenAI seine Modelle ausschließlich über eine strikt kontrollierte Cloud-Umgebung zur Verfügung. Diese Architektur soll verhindern, dass die Software direkt in Waffensystemen oder auf ungesicherten Endgeräten läuft.

Zusätzlich integriert das Unternehmen eigens sicherheitsüberprüftes Personal in die Abläufe des Militärs. Diese Ingenieure überwachen die Nutzung der Systeme kontinuierlich. Laut der Mitteilung geht das Management sogar so weit zu behaupten, das eigene Abkommen biete deutlich mehr Schutzmechanismen als die ursprünglichen Vereinbarungen von Anthropic.

Anzeige

Ein vertraglicher Widerspruch

Diese Darstellung sorgt bei Analysten für große Verwirrung. Es drängt sich unweigerlich die Frage auf, warum das Pentagon einer Kooperation mit OpenAI unter angeblich noch strengeren Vorschriften zustimmen sollte. Immerhin scheiterte die Zusammenarbeit mit Anthropic exakt an solchen ethischen Grenzen. Ein plötzliches Einlenken des Militärs an dieser Stelle erscheint absolut unlogisch.

Die Aufklärung dieses Widerspruchs findet sich im Kleingedruckten der jeweiligen Verträge. Anthropic pochte auf eine unüberwindbare rechtliche Grenze. Das Unternehmen forderte ein absolutes, schriftlich fixiertes Verbot für die Nutzung in autonomen Waffen und zur Massenüberwachung. Das Pentagon lehnte dies entschieden ab und verlangte stattdessen die pauschale Erlaubnis für "alle rechtmäßigen Zwecke".

OpenAI hingegen stimmte exakt dieser weitreichenden Formulierung zu. Das Unternehmen unterzeichnete einen Vertrag, der dem Militär die KI-Nutzung für sämtliche legale Zwecke gestattet. Die öffentlich beworbenen Schutzmechanismen von OpenAI basieren somit nicht auf strikten rechtlichen Verboten, sondern rein auf technischen Kontrollen und der eigenen Firmenpolitik.

Das Pentagon hat seine ursprünglichen vertraglichen Forderungen also vollständig durchgesetzt, während OpenAI den Kompromiss als eigenen Erfolg kommuniziert. Damit bleibt abzuwarten, wie sich diese rein technischen Sicherheitsvorkehrungen in der praktischen Zusammenarbeit mit dem Militär bewähren.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.