Anthropic-Chef warnt vor Milliardenrisiken durch gigantische KI-Rechenzentren
Dario Amodei sieht existenzbedrohende Gefahren für KI-Firmen und muss zusehen wie Claude benutzt wurde für die Entführung von Maduro.

Anthropic-CEO Dario Amodei prognostiziert in einem aktuellen Interview das baldige Erreichen einer überlegenen KI, warnt die Branche jedoch zeitgleich vor existenzbedrohenden Fehlinvestitionen in neue Rechenzentren. Parallel dazu gerät das Sprachmodell Claude durch einen militärischen Einsatz bei der Festnahme des venezolanischen Ex-Präsidenten Nicolás Maduro massiv in die Kritik.
Genies im Rechenzentrum und finanzielle Abgründe
Im Dwarkesh-Podcast formuliert Amodei drei zentrale Thesen zur Zukunft der künstlichen Intelligenz. Erstens geht er davon aus, dass KI-Modelle in ein bis drei Jahren das kognitive Niveau menschlicher Experten deutlich übersteigen. Er vergleicht diesen technologischen Zustand mit einem virtuellen Land voller Genies, das als geschlossenes System in einem Rechenzentrum operiert.
Zweitens warnt der Geschäftsführer eindringlich vor den immensen finanziellen Risiken der aktuellen Hardware-Skalierung. Konkurrenten planen derzeit Ausgaben von bis zu einer Billion US-Dollar, um das Leistungswachstum aufrechtzuerhalten. Amodei argumentiert, dass schon eine Verzögerung der Marktnachfrage um ein einziges Jahr bei derart hohen Summen unweigerlich zum Bankrott führt. Anthropic wählt laut seiner Aussage deshalb bewusst einen defensiveren Weg beim Einkauf neuer Server-Infrastrukturen.
Drittens benennt er die langsame Integration in die Wirtschaft als primären Flaschenhals. Die Modelle lösen komplexe Programmieraufgaben zwar bereits fehlerfrei, aber etablierte Großkonzerne benötigen viel Zeit für die interne Implementierung. Die tatsächliche wirtschaftliche Nutzung hinkt der rein technologischen Entwicklung demnach stark hinterher, was schnelle Umsatzsprünge erschwert.
Anzeige
Claude koordiniert Militäreinsatz
Während Amodei im Podcast wirtschaftliche Risiken abwägt, holen die realen Konsequenzen der Technologie das Unternehmen auf einer anderen Ebene ein. Laut einem Bericht des Nachrichtenportals Axios nutzte das amerikanische Verteidigungsministerium das Sprachmodell Claude aktiv bei der Gefangennahme von Nicolás Maduro im Februar 2026. Das Pentagon verarbeitete mit der Software offenbar Geheimdienstinformationen und koordinierte taktische Daten in Echtzeit.
Dieser Vorgang steht im direkten Widerspruch zu den offiziellen Nutzungsbedingungen von Anthropic. Diese verbieten den Einsatz der KI für offensive militärische Operationen ausdrücklich. Allerdings gelten für die eigene Regierung scheinbar andere Richtlinien...