Open-Source-Video-KI von Alibaba lässt deine GPU träumen
Wan2.2 generiert hochwertige Videos direkt auf dem Heim-PC – läutet das eine neue Creator-Ära ein?

WAN2.2 | All-AI.de
EINLEITUNG
Mit Wan2.2 veröffentlicht Alibaba am 28. Juli 2025 ein Videogenerierungsmodell, das für Aufsehen sorgt: 720p bei 24 fps, erzeugt in unter neun Minuten auf einer handelsüblichen RTX 4090. Doch was steckt hinter dem neuen Open-Source-Modell? Ist es nur ein technisches Upgrade – oder verändert es grundlegend, wie wir KI-Videoerstellung künftig nutzen?
NEWS
Effizienz durch spezialisierte Architektur
Herzstück des neuen Modells ist eine sogenannte Mixture-of-Experts-Architektur. Zwei spezialisierte Module übernehmen unterschiedliche Phasen der Videoerzeugung: Während das erste die groben Strukturen der frühen Bildphasen verarbeitet, kümmert sich das zweite gezielt um visuelle Feinheiten. Insgesamt werden pro Inferenzschritt rund 14 Milliarden Parameter genutzt – deutlich weniger, als man angesichts der Resultate vermuten würde.
Im Vergleich zum Vorgänger Wan2.1 liefert das Modell damit spürbar bessere Ergebnisse bei Detailtiefe, Bewegung und visuellem Realismus. Gleichzeitig bleibt der Ressourcenverbrauch auf vergleichbarem Niveau. Für viele Entwickler dürfte genau diese Kombination aus Qualität und Effizienz entscheidend sein – vor allem, wenn sie lokal arbeiten wollen.
HD-Videos auf Consumer-GPUs
Besonders beeindruckend: Die Variante TI2V‑5B schafft es, 720p-Videos mit 24 Bildern pro Sekunde auf einer einzigen RTX 4090 zu rendern – in weniger als neun Minuten. Der VRAM-Verbrauch bleibt unter 24 GB, was das Modell auch für kreative Anwender interessant macht, die ohne Rechenzentrum auskommen wollen.
Diese Leistung macht Wan2.2 zum schnellsten Open-Source-Modell seiner Art. Während viele Systeme auf teure Cloud-Setups angewiesen sind, zeigt Alibaba mit TI2V‑5B, dass hochqualitative Videogenerierung auch auf Consumer-Hardware realisierbar ist. Genau dieser Aspekt entfacht in der Community große Aufmerksamkeit.
Offene Lizenz, breiter Zugang
Wan2.2 wird unter Apache 2.0 veröffentlicht und ist über Plattformen wie Hugging Face oder ComfyUI frei zugänglich. Diese Offenheit ist ein bewusstes Signal gegen geschlossene Systeme großer Anbieter. Statt proprietärer Schnittstellen und eingeschränkter Nutzungsrechte setzt Alibaba auf ein offenes Ökosystem, das Weiterentwicklung und Anpassung ermöglicht.
Das Modell lässt sich nicht nur leicht in bestehende Workflows integrieren, sondern ist auch mit beliebten Diffusions-Frameworks kompatibel. Für Entwickler und Forschende bedeutet das: weniger Hürden, mehr Spielraum – besonders in Bereichen wie Animation, Bildung oder Forschung.
Ein Schritt Richtung Mainstream-Videogenerierung
Mit Wan2.2 wird aus dem Konzept „lokale Videogenerierung“ erstmals greifbare Realität. Die Reddit-Community feiert die Ergebnisse, auch wenn die große MoE-Version nicht ganz mit der Geschwindigkeit der kleineren Variante mithält. Trotzdem zeigt sich: HD-Videogenerierung mit KI ist längst kein Spezialfall mehr – sie kommt auf den Desktop.
Und das ist vielleicht der spannendste Aspekt: Nicht das Modell allein macht Geschichte, sondern wer es künftig einsetzt – und wofür.
DEIN VORTEIL - DEINE HILFE
Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.
Teile diesen Beitrag
Folge uns auf Social Media
Keine KI-News mehr verpassen und direkt kommentieren!
Unterstütze uns direkt
Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!
KURZFASSUNG
- Alibaba hat mit Wan2.2 ein neues Open-Source-Videomodell veröffentlicht, das HD-Videos auf Consumer-GPUs erzeugen kann.
- Dank MoE-Architektur und effizientem Setup erzielt das kompakte Modell 720p bei 24 fps in unter 9 Minuten auf einer RTX 4090.
- Mit deutlich mehr Trainingsdaten, GitHub-Integration und offener Lizenz zielt Wan2.2 auf Entwickler, Forscher und Creator.
- In der Community wird das Modell als echter Fortschritt gefeiert – trotz einiger Performance-Unterschiede der großen Variante.