Cursor Composer 2: Leak entlarvt den wahren Ursprung
Das Entwicklerteam nutzte ein fremdes Open-Source-Modell für das eigene System. Erst öffentlicher Druck führte zu einer Bestätigung.

Das Software-Unternehmen Cursor hat bei der Vorstellung seines neuen KI-Modells "Composer 2" die wahre technische Basis verschwiegen. Erst nachdem ein Entwickler auf der Plattform X die interne Modell-ID lekte, räumte der Hersteller die Nutzung des chinesischen Open-Source-Modells Kimi K2.5 ein.
Twitter Beitrag - Cookies links unten aktivieren.
Congrats to the @cursor_ai team on the launch of Composer 2!
— Kimi.ai (@Kimi_Moonshot) March 20, 2026
We are proud to see Kimi-k2.5 provide the foundation. Seeing our model integrated effectively through Cursor's continued pretraining & high-compute RL training is the open model ecosystem we love to support.…
Ein Leak entlarvt den wahren Ursprung
Der Start des neuen Modells verlief für das Entwicklerteam zunächst völlig nach Plan. Cursor präsentierte Composer 2 als extrem schnelle und kostengünstige Lösung für komplexe Programmieraufgaben.
Doch kurz nach der Veröffentlichung untersuchte ein aufmerksamer Nutzer die API-Schnittstelle genauer und entdeckte ein verräterisches Detail. Die Antwort des Servers lieferte nämlich nicht den erwarteten Namen der neuen Software zurück. Stattdessen offenbarte der Code die eindeutige interne Kennung "kimi-k2p5-rl-0317-s515-fast". Dieser Fund verbreitete sich rasch im Netz.
Der öffentliche Druck zwang das Unternehmen schließlich zu einer offiziellen Stellungnahme. Cursor-Gründer Aman Sanger gab das Versäumnis offen zu und versprach Besserung für zukünftige Veröffentlichungen.
Anzeige
Die Technik hinter dem Code-Assistenten
Die technologische Grundlage von Composer 2 bildet nun erwiesenermaßen das Open-Source-Modell Kimi K2.5 des Unternehmens Moonshot AI. Etwa ein Viertel des Pretrainings stammt direkt von dieser Basis. Den verbleibenden Teil der Entwicklung übernahm Cursor selbst und passte die Architektur an eigene Bedürfnisse an.
Das Team nutzte dabei intensives Fine-Tuning und Methoden wie Reinforcement Learning, um das System speziell auf lange Code-Eingaben zu trimmen.
Durch diesen technischen Ansatz verarbeiten die KI-Modelle Token effizienter und liefern präzisere Ergebnisse beim Programmieren. Trotz der anfänglichen Intransparenz bleibt der technische Fortschritt für die Anwender deutlich spürbar. Sie erhalten ein sehr fähiges System, das bei den API-Kosten deutlich unter den Preisen vieler Konkurrenten liegt.