Das 500-Milliarden-Dollar-Projekt stockt und zwingt OpenAI zum Umdenken
Der schleppende Ausbau riesiger Rechenzentren bremst das Training neuer KI-Modelle. OpenAI sucht nun händeringend nach dezentralen Server-Alternativen.

Das von Donald Trump Anfang 2025 beworbene 500-Milliarden-Dollar-Projekt "Stargate" für neue KI-Rechenzentren stagniert. Recherchen von The Information belegen, dass OpenAI dringend benötigte Rechenleistung zunehmend über kleinere, bilaterale Cloud-Deals sichert, da der Bau der geplanten Mega-Infrastruktur kaum vorankommt.
Stolpersteine beim Mega-Cluster
Ursprünglich plante das Konsortium aus OpenAI, Oracle und Softbank den Aufbau massiver Rechenzentren mit einer Gesamtkapazität von mehreren Gigawatt. Der Betrieb solcher hochverdichteten Anlagen erfordert jedoch gewaltige Strommengen und spezialisierte Flüssigkeitskühlungen. Lokale Energienetze geraten durch diesen enormen Bedarf schnell an ihre absoluten Grenzen.
Zusätzlich bremsen infrastrukturelle Hürden und hohe Importzölle auf Server-Hardware den Zeitplan spürbar aus. Die physische Konstruktion der Anlagen und die Anbindung an das Hochspannungsnetz dauern deutlich länger als zunächst kalkuliert.
Anzeige
Dezentrale Strategie als Ausweg
OpenAI benötigt für das Training zukünftiger Basismodelle zwingend neue Compute-Ressourcen.
Der japanische Investor Softbank trat bei den konkreten Bauprojekten der vergangenen Monate kaum noch in Erscheinung. Anstatt auf den Abschluss der großen Stargate-Standorte zu warten, schließt OpenAI direkte Verträge mit etablierten Cloud-Dienstleistern ab. Bestehende Partnerschaften mit Oracle wurden bereits finanziell stark ausgeweitet, um den akuten Bedarf an dedizierten KI-Beschleunigern abzufedern.
Das Unternehmen weicht kurzfristig auf bestehende, kleinere Server-Farmen aus.
Auswirkungen auf das KI-Training
Diese dezentral angelegte Infrastruktur zwingt das Unternehmen zu tiefgreifenden technischen Anpassungen. Für ein effizientes Training großer neuronaler Netze ist eine extrem hohe und konstante Bandbreite zwischen den zehntausenden Rechenkernen notwendig.
Ein System aus mehreren physisch getrennten Rechenzentren erhöht die Netzwerklatenz und erschwert die fehlerfreie Synchronisation der Parameter. OpenAI muss seine Trainings-Algorithmen modifizieren, um den Datenaustausch über weitere Distanzen zu optimieren. Das primäre Ziel bleibt die Sicherung von ausreichend Hardware-Kapazität, um die Entwicklungskalender nicht zu gefährden.
Das Unternehmen priorisiert pragmatische Cloud-Zusammenschlüsse, um die reine Rechenleistung für kommende System-Updates sicherzustellen.