OpenAI bricht mit Nvidia-Tradition: 10-Milliarden-Deal mit Cerebras
Sam Altman setzt überraschend auf riesige Wafer-Scale-Chips und sichert sich gigantische Rechenpower für die nächste KI-Generation.

OpenAI diversifiziert seine Infrastruktur massiv und schließt einen Deal über rund zehn Milliarden US-Dollar mit dem Chip-Spezialisten Cerebras ab. Diese Partnerschaft sichert gigantische Kapazitäten abseits von Nvidia und signalisiert einen strategischen Wandel hin zur Inferenz-Optimierung.
Der Kampf um Rechenkapazitäten erreicht eine neue Dimension. OpenAI verpflichtet sich, über die kommenden Jahre Rechenleistung im Wert von über zehn Milliarden US-Dollar von Cerebras Systems zu beziehen. Die Vereinbarung sieht vor, dass das Startup eine Infrastruktur bereitstellt, die bis zu 750 Megawatt Strom verbraucht. Zum Vergleich: Das entspricht der Leistung eines mittleren Kohlekraftwerks und verdeutlicht den enormen Energiehunger moderner KI-Modelle. Der Vertrag läuft Berichten zufolge über drei Jahre und startet, sobald die entsprechenden Rechenzentren vollständig operativ sind, voraussichtlich ab 2027.
Wafer-Scale-Technologie als Alternative
Technisch setzt OpenAI damit auf einen fundamental anderen Ansatz als bei den bisher dominierenden GPUs von Nvidia. Cerebras fertigt sogenannte Wafer-Scale Engines (WSE). Während herkömmliche Chiphersteller hunderte kleiner Prozessoren aus einem Silizium-Wafer schneiden, belässt Cerebras den Wafer als einen einzigen, riesigen Chip intakt.
Dieser Ansatz eliminiert die Kommunikationslatenz zwischen einzelnen Chips fast vollständig, da Daten nicht über langsame externe Verbindungen gesendet werden müssen. Das Ergebnis ist eine extrem hohe Speicherbandbreite und Rechengeschwindigkeit. Diese Architektur eignet sich besonders gut für große Modelle, die enorme Datenmengen parallel verarbeiten müssen. Für OpenAI bedeutet dies potenziell schnellere Antwortzeiten bei ChatGPT und komplexen Agenten-Systemen.
Anzeige
Strategischer Schwenk zur Inferenz
Die Partnerschaft markiert eine klare Verschiebung in der Ressourcenplanung von Sam Altman. Bisher lag der Fokus der Industrie primär auf dem Training neuer Modelle, einer Disziplin, in der Nvidias H100- und Blackwell-Chips als unangefochtener Standard gelten. Der Deal mit Cerebras zielt jedoch spezifisch auf die Inferenz ab – also die Anwendung der trainierten KI im täglichen Betrieb.
Da OpenAI hunderte Millionen Nutzer bedient, explodieren die Kosten für den laufenden Betrieb. Cerebras verspricht hier eine effizientere Skalierung. Gleichzeitig sendet der Schritt ein deutliches Signal an den Markt: OpenAI ist nicht länger bereit, sich exklusiv auf einen Hardware-Lieferanten zu verlassen. Die Diversifizierung stärkt die Verhandlungsposition gegenüber Nvidia und sichert den Zugriff auf Compute-Ressourcen in einem Markt, in dem Angebotsknappheit zum Alltag gehört.