Irre Pläne! Sam Altman will 100 Millionen GPUs – kann das klappen?
Milliarden für Chips, Zelt-Datencenter und Energie ohne Ende – baut OpenAI jetzt das größte KI-Netzwerk der Geschichte?

gpt-image-1 | All-AI.de
EINLEITUNG
OpenAI-Chef Sam Altman gibt sich gewohnt angriffslustig: Bis Ende 2025 will das Unternehmen über eine Million GPUs betreiben – doch das eigentliche Ziel liegt hundertmal höher. Das Stargate-Projekt, gemeinsam mit Oracle und SoftBank geplant, soll den Weg dorthin ebnen. Gleichzeitig kontert Meta mit eigenen Mega-Clustern. Doch wie realistisch sind diese Visionen – und wer hat im globalen Wettlauf tatsächlich die Nase vorn?
NEWS
Altmans GPU-Offensive: Auf dem Weg zur Millionenmarke
In einem öffentlichkeitswirksamen Post kündigte Sam Altman an, OpenAI werde bis Jahresende die Schwelle von einer Million GPUs überschreiten. Eine beeindruckende Zahl, die die aktuellen Lieferprobleme bei Nvidia nicht vergessen lässt. Denn gerade in den vergangenen Monaten musste OpenAI bereits bei bestehenden Modellen wie GPT‑4.5 den Rollout drosseln, weil schlicht nicht genug Hardware vorhanden war. Trotzdem will Altman deutlich mehr: Seine Vision reicht bis zu 100 Millionen GPUs – eine Zielmarke, die eher wie eine Kampfansage klingt als wie ein konkreter Plan.
Rein rechnerisch würde dieses Ziel ein Investitionsvolumen im Bereich mehrerer Billionen US-Dollar erfordern – allein für die Chips. Energieversorgung, Rechenzentren und weltweite Infrastruktur kommen noch obendrauf. Aktuell klingt das weniger wie ein realistisches Vorhaben als vielmehr wie eine ambitionierte Wunschvorstellung. Doch Altmans Strategie scheint klar: Wer groß denkt, gibt den Takt für die gesamte Branche vor.
Cookies aktivieren um den Inhalt zu sehen:
we will cross well over 1 million GPUs brought online by the end of this year!
— Sam Altman (@sama) July 20, 2025
very proud of the team but now they better get to work figuring out how to 100x that lol
Stargate-Projekt stockt – Oracle und SoftBank uneins
Das Stargate-Konsortium aus OpenAI, Oracle und SoftBank gilt als Schlüssel zur Hardware-Offensive. In Texas entsteht bereits ein erstes Rechenzentrum, ausgelegt auf 1,2 Gigawatt Leistung. Hier sollen in einer ersten Ausbaustufe bis zu 64.000 Nvidia-GB200-GPUs verbaut werden. Doch der Bau kommt langsamer voran als geplant. Statt in Texas könnte ein kleineres Zentrum in Ohio nun zur ersten Station werden – Grund sind interne Differenzen zwischen den Partnern.
Auch SoftBank und OpenAI scheinen sich nicht über Details der Umsetzung einig. Während Oracle parallel gewaltige Rechenkapazitäten in den USA sichert, bleibt die Frage, ob der ursprüngliche Zeitplan überhaupt noch zu halten ist. Aus dem versprochenen Mega-Projekt wird möglicherweise eine Etappenlösung. Für OpenAI bedeutet das: Die kurzfristigen GPU-Ziele bleiben erreichbar, doch der Traum vom hundertfachen Ausbau rückt in weite Ferne.
Meta geht den modularen Weg
Während OpenAI auf Großprojekte setzt, fährt Meta eine andere Strategie. Mit den Clustern Prometheus und Hyperion setzt der Konzern auf modulare, schnell skalierbare Lösungen. Der Vorteil: Die Anlagen lassen sich flexibler ausbauen und schneller hochfahren. Prometheus erreicht bereits heute eine Leistung von einem Gigawatt, Hyperion soll mittelfristig sogar fünf Gigawatt liefern.
Um dieses Tempo zu ermöglichen, errichtet Meta seine Rechenzentren teilweise in Zeltstrukturen und betreibt eigene Gaskraftwerke direkt vor Ort. Die Strategie ist ungewöhnlich, zeigt aber Wirkung. Meta bleibt damit handlungsfähig, während Konkurrenten sich mit regulatorischen Hürden und internen Streitigkeiten herumschlagen. Ein Ansatz, der OpenAI durchaus als Vorbild dienen könnte.
Was bleibt von der 100-Millionen-Ansage?
Eines steht fest: Der Wettlauf um Rechenleistung hat sich in den letzten Monaten massiv beschleunigt. OpenAI und Meta liefern sich ein Kopf-an-Kopf-Rennen, wobei beide auf sehr unterschiedliche Strategien setzen. Altmans Vision der 100 Millionen GPUs klingt dabei eher wie ein strategisches Zielbild als wie eine ernsthafte Planung. Doch selbst, wenn dieses Ziel nie erreicht wird – die Richtung gibt OpenAI vor. Ob das am Ende für einen Vorsprung reicht, hängt nicht nur von Hardware ab, sondern davon, wer sich schneller und flexibler an neue Herausforderungen anpasst. Aktuell scheint Meta in dieser Disziplin die Nase leicht vorn zu haben. Doch der Sommer ist noch lang.
DEIN VORTEIL - DEINE HILFE
Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.
Teile diesen Beitrag
Folge uns auf Social Media
Keine KI-News mehr verpassen und direkt kommentieren!
Unterstütze uns direkt
Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!