Schnellere KI-Antworten: Nvidia nutzt Groq-Technologie für neue Hardware
Durch die Integration der LPU-Architektur will Nvidia die Latenz bei Sprachmodellen massiv senken und seine Marktmacht ausbauen.

Der Chiphersteller Nvidia lizenziert für rund 20 Milliarden US-Dollar die Technologie des Startups Groq und übernimmt dessen komplettes Führungsteam. Dieser strategische Schritt soll die Marktführerschaft bei der Ausführung künstlicher Intelligenz gegen die wachsende Konkurrenz durch Google absichern.
Inferenz-Technologie im Fokus
Nvidia sichert sich durch das Abkommen den Zugriff auf die Architektur der sogenannten Language Processing Units (LPU). Diese speziellen Chips sind auf die Inferenz optimiert, also den Prozess, bei dem ein bereits trainiertes KI-Modell Antworten für den Nutzer generiert. Während Nvidia den Markt für das Training von Modellen mit seinen Grafikkarten beherrscht, gelten die Lösungen von Groq als deutlich schneller und energieeffizienter bei der täglichen Anwendung.
Der Deal umfasst eine Barzahlung von 20 Milliarden US-Dollar und ist als nicht-exklusive Lizenzvereinbarung strukturiert. Diese Form der Kooperation ermöglicht es Nvidia, die Technologie unmittelbar in die eigene Hardware-Infrastruktur zu integrieren, ohne die langwierigen kartellrechtlichen Hürden einer vollständigen Firmenübernahme abwarten zu müssen. Branchenexperten werten das Vorgehen als deutliches Signal für die Dringlichkeit, mit der Nvidia seine Vormachtstellung im Halbleitermarkt verteidigt.
Anzeige
Frontalangriff auf Googles Hardware
Mit dem Zukauf reagiert Konzernchef Jensen Huang direkt auf die Erfolge von Google im Bereich der Tensor Processing Units (TPU). Diese von Google entwickelten Prozessoren stellen für Nvidia eine ernsthafte Bedrohung dar, da sie speziell für KI-Workloads konzipiert sind und zunehmend Marktanteile bei Cloud-Anbietern gewinnen. Die LPU-Technologie von Groq verspricht hier Abhilfe, da sie durch ein radikal vereinfachtes Design eine extrem geringe Latenz bietet.
Latenz beschreibt in diesem Zusammenhang die Zeitspanne zwischen der Anfrage eines Nutzers und der Antwort der KI. Die Chips von Groq verzichten auf komplexe Speicherzugriffe und ermöglichen so einen kontinuierlichen Datenstrom, der die Token-Generierung massiv beschleunigt. Für Echtzeitanwendungen wie Sprachassistenten oder autonome Systeme ist diese Geschwindigkeit ein entscheidender Wettbewerbsvorteil gegenüber herkömmlichen Grafikprozessoren.
Strategische Übernahme des Führungsteams
Ein zentraler Bestandteil der Vereinbarung ist der Wechsel des Groq-Gründers Jonathan Ross zu Nvidia. Ross gilt als Koryphäe der Branche und war zuvor maßgeblich an der Entwicklung der ersten TPU-Generationen bei Google beteiligt. Gemeinsam mit Präsident Sunny Madra und dem Kern der Ingenieursmannschaft soll er nun die Integration der Groq-Patente in die kommende Nvidia-Architektur vorantreiben.
Groq selbst bleibt als eigenständiges Unternehmen unter der Leitung des neuen CEO Simon Edwards bestehen und wird seinen Cloud-Dienst weiter betreiben. Faktisch verliert das Startup jedoch seine wichtigsten Vordenker an den Branchenriesen. Diese Praxis des Talent-Akquise-Deals erinnert an ähnliche Manöver von Microsoft und Amazon, die sich auf diesem Weg technisches Know-how sichern, ohne formell zu fusionieren.