Ein US Soldat vor Claude

Die Maduro-Festnahme wird Anthropic nun zum Verhängnis

Nach einem Spezialeinsatz in Venezuela stellte der KI-Entwickler kritische Fragen. Das Pentagon reagiert mit drastischen Maßnahmen.

Andreas Becker Nano Banana
Ein US Soldat vor Claude

Das US-Verteidigungsministerium droht dem KI-Unternehmen Anthropic mit einem faktischen Boykott. Wegen eines Konflikts über ethische Vorgaben beim militärischen Einsatz des Sprachmodells Claude steht die Einstufung als nationales Sicherheitsrisiko im Raum.

Streit um autonome Waffen

Die Auseinandersetzung dreht sich um die grundlegende Frage, wer die Kontrolle über die Fähigkeiten einer Künstlichen Intelligenz behält. Anthropic verweigert strikt die Nutzung seiner Modelle für vollautonome Waffensysteme und die massenhafte Überwachung von Zivilisten. Das Pentagon unter Verteidigungsminister Pete Hegseth pocht hingegen auf einen uneingeschränkten Zugriff für sämtliche rechtmäßigen Zwecke.

Eine offizielle Einstufung als "Supply Chain Risk", wie sie das Nachrichtenportal Axios unter Berufung auf Regierungskreise meldet, trifft normalerweise nur ausländische Spionageziele. Der Schritt hätte enorme wirtschaftliche Konsequenzen für Anthropic. Jeder Dienstleister, der Aufträge vom US-Militär erhält, müsste die komplette Software von Anthropic aus seinen Systemen entfernen und dies zertifizieren. Da Claude tief in die Infrastruktur zahlreicher großer US-Konzerne integriert ist, würde ein solches Dekret eine weitreichende Abkehr von dem KI-Anbieter erzwingen.

Anzeige

Auslöser Maduro-Operation

Der Konflikt entzündete sich an einem konkreten Militäreinsatz im Januar 2026. Bei der Festnahme des venezolanischen Präsidenten Nicolás Maduro in Caracas nutzten US-Spezialkräfte das Modell Claude über eine Partnerschaft mit dem Datenkonzern Palantir. Die genaue technische Rolle der KI bei diesem tödlichen Einsatz bleibt geheim.

Nach der Operation erkundigte sich ein Anthropic-Manager bei Palantir nach der spezifischen Verwendung der Software. Diese Nachfrage fasste das Pentagon als unzulässige Einmischung in operative Militärentscheidungen auf. Das Ministerium lehnt es ab, für einzelne Einsätze vorab die Genehmigung eines privaten Technologieunternehmens einzuholen oder unerwartete Ausfälle durch interne Software-Filter zu riskieren.

Konkurrenz profitiert

Das Verteidigungsministerium bereitet bereits technische Alternativen vor. In parallelen Verhandlungen sprechen die Verantwortlichen mit OpenAI, Google und Elon Musks xAI. Diese Unternehmen zeigen sich Berichten zufolge deutlich kooperativer, wenn es um den Verzicht auf eigene Nutzungsbeschränkungen geht.

Bislang hält Anthropic noch einen Zweijahresvertrag mit dem Pentagon über ein Volumen von bis zu 200 Millionen US-Dollar. Aktuell ist Claude zudem das einzige generative KI-Modell, das vollständig für die hochgeheimen Netzwerke des US-Militärs zugelassen ist.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.