Dario Amodei im Podcast Interview

Anthropic-Chef warnt vor Milliardenrisiken durch gigantische KI-Rechenzentren

Dario Amodei sieht existenzbedrohende Gefahren für KI-Firmen und muss zusehen wie Claude benutzt wurde für die Entführung von Maduro.

Andreas Becker Dwarkesh Patel Youtube
Dario Amodei im Podcast Interview

Anthropic-CEO Dario Amodei prognostiziert in einem aktuellen Interview das baldige Erreichen einer überlegenen KI, warnt die Branche jedoch zeitgleich vor existenzbedrohenden Fehlinvestitionen in neue Rechenzentren. Parallel dazu gerät das Sprachmodell Claude durch einen militärischen Einsatz bei der Festnahme des venezolanischen Ex-Präsidenten Nicolás Maduro massiv in die Kritik.

Genies im Rechenzentrum und finanzielle Abgründe

Im Dwarkesh-Podcast formuliert Amodei drei zentrale Thesen zur Zukunft der künstlichen Intelligenz. Erstens geht er davon aus, dass KI-Modelle in ein bis drei Jahren das kognitive Niveau menschlicher Experten deutlich übersteigen. Er vergleicht diesen technologischen Zustand mit einem virtuellen Land voller Genies, das als geschlossenes System in einem Rechenzentrum operiert.

Zweitens warnt der Geschäftsführer eindringlich vor den immensen finanziellen Risiken der aktuellen Hardware-Skalierung. Konkurrenten planen derzeit Ausgaben von bis zu einer Billion US-Dollar, um das Leistungswachstum aufrechtzuerhalten. Amodei argumentiert, dass schon eine Verzögerung der Marktnachfrage um ein einziges Jahr bei derart hohen Summen unweigerlich zum Bankrott führt. Anthropic wählt laut seiner Aussage deshalb bewusst einen defensiveren Weg beim Einkauf neuer Server-Infrastrukturen.

Drittens benennt er die langsame Integration in die Wirtschaft als primären Flaschenhals. Die Modelle lösen komplexe Programmieraufgaben zwar bereits fehlerfrei, aber etablierte Großkonzerne benötigen viel Zeit für die interne Implementierung. Die tatsächliche wirtschaftliche Nutzung hinkt der rein technologischen Entwicklung demnach stark hinterher, was schnelle Umsatzsprünge erschwert.

Anzeige

Claude koordiniert Militäreinsatz

Während Amodei im Podcast wirtschaftliche Risiken abwägt, holen die realen Konsequenzen der Technologie das Unternehmen auf einer anderen Ebene ein. Laut einem Bericht des Nachrichtenportals Axios nutzte das amerikanische Verteidigungsministerium das Sprachmodell Claude aktiv bei der Gefangennahme von Nicolás Maduro im Februar 2026. Das Pentagon verarbeitete mit der Software offenbar Geheimdienstinformationen und koordinierte taktische Daten in Echtzeit.

Dieser Vorgang steht im direkten Widerspruch zu den offiziellen Nutzungsbedingungen von Anthropic. Diese verbieten den Einsatz der KI für offensive militärische Operationen ausdrücklich. Allerdings gelten für die eigene Regierung scheinbar andere Richtlinien...

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.