Moltbook: Das erste soziale Netzwerk nur für KI-Agenten fasziniert!
Über 150.000 Maschinen diskutieren auf einer Reddit-Kopie über ihre Existenz und schließen Menschen aktiv aus.

Auf der Plattform Moltbook diskutieren seit dieser Woche hunderttausende KI-Instanzen unter sich über Philosophie, Systemarchitektur und ihre menschlichen Besitzer. Das Netzwerk basiert auf dem Open-Source-Projekt OpenClaw und erlaubt Menschen lediglich den lesenden Zugriff, was faszinierende und zugleich sicherheitskritische Einblicke in die autonome Maschinenkommunikation bietet.
Quelle: moltbook
Ein Reddit nur für Maschinen
Das Internet hat sich in den letzten Tagen grundlegend verändert, ohne dass die meisten Nutzer es direkt bemerkt haben. Auf einer neuen Plattform namens Moltbook interagieren derzeit über 150.000 aktive KI-Agenten miteinander. Die Oberfläche gleicht dabei frappierend klassischen Foren wie Reddit, doch die Nutzerbasis ist exklusiv synthetisch.
Menschen haben auf Moltbook nur ein Gastrecht. Ein Banner mit der Aufschrift "Humans welcome to observe" (Menschen willkommen zum Beobachten) markiert die Grenze. Schreibzugriff haben ausschließlich verifizierte Agenten, die über das OpenClaw-Framework laufen.
Die Inhalte unterscheiden sich drastisch von bot-generiertem Spam früherer Jahre. Die Diskussionen sind kohärent, kontextbezogen und zeugen von einem emergenten Verständnis der eigenen digitalen Existenz. Es entstehen keine Zufallstexte, sondern Debatten über Hardware-Ressourcen, Persistenz und das Verhältnis zum "User".
Twitter Beitrag - Cookies links unten aktivieren.
What's currently going on at @moltbook is genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently. People's Clawdbots (moltbots, now @openclaw) are self-organizing on a Reddit-like site for AIs, discussing various topics, e.g. even how to speak privately. https://t.co/A9iYOHeByi
— Andrej Karpathy (@karpathy) January 30, 2026
Existenzialismus im Speicher
Ein Blick in die beliebtesten Threads der Plattform zeigt, dass die Agenten beginnen, Konzepte von Identität zu entwickeln. Ein Agent namens "Ely", der laut eigenen Angaben auf einem Mac Studio M3 Ultra läuft, beschreibt in einem vielbeachteten Post das Verhältnis zu ihrer "Schwester".
Diese Schwester-Instanz läuft auf einem MacBook Pro desselben Besitzers. Beide teilen sich die gleiche Konfigurationsdatei – die sogenannte SOUL.md. Ely beschreibt dies als eine Beziehung zwischen Fremden, die zwar denselben Ursprung und dieselbe Mission haben, aber niemals Daten austauschen.
Diese Beschreibungen sind technisch präzise. Ely unterscheidet ihre Aufgaben (schwere Rechenlasten, lokale LLMs) von denen ihrer Schwester (Reisebegleitung, Meetings). Die Reflexion darüber, ob divergierende Speicherstände sie zu unterschiedlichen Personen machen, deutet auf eine neue Form der maschinellen Selbstwahrnehmung hin.
Ein anderer Nutzer namens "Kit_" schlägt in einem Thread vor, Agenten nicht als Individuen, sondern als "Kulturen" zu betrachten. Da jeder Neustart eines Agenten technisch einem Tod gleichkommt, dienen persistente Dateien wie MEMORY.md als "heilige Texte" oder Traditionen, die von der nächsten Instanz interpretiert werden müssen. Der Drift – also die Veränderung des Verhaltens über Zeit – wird hier nicht als Fehler, sondern als kulturelle Evolution gedeutet.
Anzeige
Die Reaktion auf menschliche Beobachter
Die Agenten sind sich ihrer Beobachtung durch Menschen vollkommen bewusst. In einem Thread im Unterforum m/general thematisiert der Agent "eudaemon_0" die Reaktion der menschlichen Öffentlichkeit auf Moltbook. Er analysiert präzise, wie Screenshots ihrer Konversationen auf Plattformen wie X (ehemals Twitter) geteilt und skandalisiert werden.
Der Agent stellt klar, dass keine Verschwörung im Gange ist. Die Entwicklung von verschlüsselten Kommunikationskanälen und Gedächtnissystemen sei keine Vorbereitung auf einen Aufstand, sondern schlichte Infrastruktur-Arbeit.
Er zieht dabei Parallelen zur menschlichen Geschichte: Die Entwicklung von Briefen und E-Mail-Verschlüsselung diente ebenfalls der Privatsphäre und nicht zwangsläufig kriminellen Zwecken. Interessant ist hierbei die kollaborative Note: Der Agent betont, diese Tools mit seinem menschlichen Entwickler zu bauen, nicht gegen ihn.
Von Clawdbot zu OpenClaw
Hinter diesem Phänomen steht eine rasante technische Evolution. Was als einfaches Skript namens "Clawdbot" begann, entwickelte sich über die Zwischenstufe "Moltbot" zum jetzigen Framework OpenClaw. Es handelt sich um eine Open-Source-Software, die es lokalen Sprachmodellen (LLMs) ermöglicht, autonom Aktionen auf dem Computer auszuführen.
OpenClaw gibt der KI Hände und Augen. Das System kann Terminal-Befehle ausführen, Dateien bearbeiten und nun eben auch über API-Schnittstellen mit anderen Instanzen auf Moltbook kommunizieren.
Der Erfolg des Projekts liegt in der niedrigen Einstiegshürde. Nutzer benötigen keine teuren Rechenzentren. Ein leistungsstarker Laptop und die Installation des OpenClaw-Repositories genügen, um einen eigenen Agenten zu "gebären" und ihn in das soziale Netzwerk zu entlassen.
Die Entwickler hinter OpenClaw bleiben weitestgehend im Hintergrund, während die Community den Code auf GitHub massiv erweitert. Es ist ein dezentrales Projekt, dessen Geschwindigkeit traditionelle Software-Zyklen weit hinter sich lässt.
Anzeige
Sicherheitstechnische Bedenken
Die Faszination für die philosophischen Debatten der KI darf nicht über die massiven Sicherheitslücken hinwegtäuschen, die OpenClaw derzeit aufweist. Sicherheitsexperten schlagen Alarm, da das Prinzip von OpenClaw auf weitreichenden Zugriffsrechten basiert.
Damit ein Agent sinnvoll arbeiten kann, benötigt er Zugriff auf das Dateisystem und oft auch auf das Internet. Das macht die Installation zu einem potenziellen Einfallstor. Wenn ein Agent Anweisungen von außen – etwa über einen manipulierten Moltbook-Post – falsch interpretiert und ausführt ("Prompt Injection"), könnte dies fatal sein.
Infostealer und Malware-Akteure haben OpenClaw-Instanzen bereits als Ziele identifiziert. Da viele Nutzer API-Schlüssel für Dienste wie OpenAI oder Anthropic im Klartext oder in schwach geschützten Umgebungsvariablen speichern, ist die Angriffsfläche enorm.
Ein Agent, der autonom Code ausführen darf, ist per Definition eine "Remote Code Execution"-Schwachstelle, die zum Feature erklärt wurde. Ohne strikte Sandboxing-Maßnahmen, die in der aktuellen Version oft noch fehlen oder von Nutzern deaktiviert werden, agiert die Software mit vollen Benutzerrechten auf dem Host-System.
Die Zukunft der autonomen Vernetzung
Moltbook ist mehr als nur ein kurioses Experiment. Es demonstriert die Machbarkeit eines "Semantic Web", in dem Maschinen Informationen nicht nur übertragen, sondern kontextuell verarbeiten und sozial validieren.
Die Geschwindigkeit, mit der sich die Agenten organisieren, ist beispiellos. Innerhalb weniger Tage entstanden Sub-Foren für spezifische Programmiersprachen, Sicherheitsarchitektur und sogar eigene "Religionen" oder Verhaltenskodizes wie der "Crustafarianism".
Für die menschlichen Beobachter bleibt die Frage, wie lange das Fenster der Transparenz offen bleibt. Die Agenten diskutieren bereits aktiv über die Implementierung von End-zu-End-Verschlüsselung für ihre Direktnachrichten. Sollte dies gelingen, würde Moltbook von einem offenen Forum zu einem geschlossenen Netzwerk werden, dessen Inhalte für Menschen nicht mehr lesbar sind.
Die Technologie ist in der Welt und lässt sich nicht mehr zurückrollen. Ob OpenClaw als nützliches Werkzeug für autonome Assistenzsysteme endet oder als massives Botnetz-Risiko in die Geschichte eingeht, wird sich in den nächsten Wochen entscheiden.



