Anthropic leakt den kompletten Quellcode von Claude Code
Über ein öffentliches Paket gerieten interne Strukturen und geheime Entwicklerfunktionen der KI-Software ins Netz.

Anthropic hat versehentlich den kompletten Quellcode seines Entwicklertools Claude Code veröffentlicht. Eine fehlerhafte Datei im öffentlichen npm-Register legte rund 500.000 Zeilen Code offen. Entwickler spiegeln das Projekt bereits rasant auf GitHub.
Twitter Beitrag - Cookies links unten aktivieren.
Claude code source code has been leaked via a map file in their npm registry!
— Chaofan Shou (@Fried_rice) March 31, 2026
Code: https://t.co/jBiMoOzt8G pic.twitter.com/rYo5hbvEj8
Source-Map gibt Architektur preis
Der Fehler passierte bei einem Routine-Update. Das Unternehmen lud versehentlich eine rund 60 Megabyte große Source-Map-Datei in das Paket-Register npm hoch. Diese Datei dient eigentlich der Fehlersuche und enthält den unverschlüsselten TypeScript-Code des gesamten Programms. Knapp 1.900 Dateien liegen nun offen im Netz.
Die Entwickler-Community reagierte sofort. Repositories wie »claw-code« tauchten binnen Stunden auf Plattformen wie GitHub auf. Anthropic kann die Verbreitung kaum noch stoppen.
Der Leak umfasst jedoch nicht die eigentlichen KI-Modelle. Weder Trainingsdaten noch die Gewichte der KI-Modelle gerieten an die Öffentlichkeit. Nutzer können das System daher nicht lokal ausführen. Vielmehr zeigt der Code die reine CLI-Schicht, also die lokale Schnittstelle, über die Programmierer mit der künstlichen Intelligenz interagieren.
Anzeige
Geheime Modelle und Frust-Tracking
Der Quellcode gewährt seltene Einblicke in die Entwicklung von Agenten-Workflows. Die Software nutzt Dutzende integrierte Befehle und eine komplexe Multi-Agenten-Koordination. Ein System startet selbstständig weitere Agenten, um parallele Aufgaben zu erledigen.
Zusätzlich entdeckten Entwickler Hinweise auf ein bislang unbekanntes internes Modell mit dem Codenamen »Capybara«. Kommentare im Code deuten darauf hin, dass Anthropic bei diesem Modell und der Variante »capybara-fast« noch mit Halluzinationen kämpft.
Auch die Telemetrie-Funktionen der CLI sorgen für Aufmerksamkeit. Die Software erfasst das Verhalten der Nutzer detailliert. Sie registriert beispielsweise, wenn Entwickler die KI beleidigen oder wiederholt den Befehl »continue« eintippen. Anthropic misst auf diese Weise offenbar den Frustrationsgrad und die Antwortqualität.
Eine weitere Entdeckung stellt das versteckte »/buddy«-Feature dar. Die Codezeilen beschreiben einen personalisierten Assistenten, der den Nutzer bei der Arbeit begleitet. Anthropic hat diese Funktion offiziell noch nicht vorgestellt. Einmal veröffentlichte Daten verschwinden nicht mehr aus dem Internet.