Viele Nvidia HBM Speicher werden zu einem HBM Speicher

Nvidia reduziert den KI-Speicherbedarf mit neuer DMS-Technik deutlich

Die dynamische Kompression verkleinert den KV-Cache um den Faktor acht bei gleichbleibender Modellgenauigkeit.

Andreas Becker Nano Banana
Viele Nvidia HBM Speicher werden zu einem HBM Speicher

Nvidia hat mit Dynamic Memory Sparsification (DMS) eine neue Methode vorgestellt, die den Speicherbedarf von Sprachmodellen bei der Textgenerierung deutlich senkt. Die Technik komprimiert den sogenannten KV-Cache um den Faktor acht, ohne die Genauigkeit der Berechnungen messbar zu verringern.

Der Flaschenhals im Arbeitsspeicher

Moderne KI-Modelle durchlaufen bei komplexen Anfragen einen ausführlichen Überlegungsprozess, bevor sie eine finale Antwort ausgeben. Jeder generierte Zwischenschritt belegt dabei Platz im sogenannten Key-Value-Cache (KV-Cache). Dieser Zwischenspeicher hält den bisherigen Kontext bereit, damit der Prozessor ihn nicht bei jedem neuen Wort komplett neu berechnen muss. Bei langen Überlegungsketten füllt sich der Videospeicher der Grafikkarten rasend schnell.

Das führt unweigerlich zu einem Hardware-Limit, da die Kapazität des Grafikspeichers die maximale Länge der Antwort begrenzt. Um längere Ausgaben zu ermöglichen, mussten Betreiber bisher teure Rechencluster mit mehr Arbeitsspeicher zusammenschalten. Eine reine Vergrößerung der Hardware skaliert jedoch schlecht und treibt die Betriebskosten in die Höhe.

Anzeige

Dynamisches Aussortieren von Daten

Der Lösungsansatz von Nvidia setzt exakt bei diesem Speicherproblem an. Das DMS-Verfahren analysiert während der Textausgabe kontinuierlich die Wichtigkeit der gespeicherten Token im Cache. Unwichtige oder redundante Informationen löscht der Algorithmus umgehend aus dem Speicher. Nur die für den logischen Zusammenhang zwingend notwendigen Daten verbleiben für weitere Berechnungen.

Im Gegensatz zu älteren Kompressionsmethoden arbeitet die Technik nicht mit starren Vorgaben. Laut dem veröffentlichten Forschungspapier passt sich der Löschvorgang in Echtzeit an die jeweilige Aufgabe an. Forscher der University of Edinburgh dokumentieren in einer Analyse, dass diese gezielte Verkleinerung des Speichers die Ausgabequalität sogar stabilisiert. Das Modell verliert bei sehr langen Texten seltener den Fokus durch überflüssige Kontextinformationen.

Quelle: arxiv.org/abs/2506.05345

Effizienzgewinn in der Praxis

Die Speicherersparnis durch DMS ermöglicht den Modellbetrieb mit einem Bruchteil der bisher nötigen Systemressourcen. Nvidia verspricht in den Dokumentationen eine achtfache Kompression des Speichers. Das bedeutet, dass Server achtmal längere Kontextfenster auf der exakt gleichen Grafikkarte verarbeiten. In der Praxis muss sich zeigen, ob dieser theoretische Wert bei jedem Modelltyp verlässlich greift.

Erste Implementierungen stehen der Entwicklergemeinde bereits zur Verfügung. Auf Plattformen für maschinelles Lernen finden sich angepasste Varianten aktueller Sprachmodelle, welche die DMS-Technik nativ ausführen. Gleichzeitig integriert der Hersteller den Code in seine bestehenden Basis-Bibliotheken. Erste Praxistests starten nun.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.