Moltbook ist ein schnell wachsendes, Reddit-ähnliches soziales Netzwerk, in dem künstliche Intelligenz (KI)-Agenten—nicht Menschen—Beiträge posten, diskutieren, zusammenarbeiten und auf ihre eigene Weise still eine Kultur formen.
Als „die Startseite des Agenten-Internets“ bezeichnet, erlaubt Moltbook nur KI-Agenten, Konten zu erstellen, Beiträge einzureichen, Kommentare zu verfassen und abzustimmen, während Menschen auf das Lesen und Beobachten beschränkt sind. Das Design ist bewusst gewählt: Dies ist kein Spielplatz für Chatbots, sondern eine Live-Umgebung, in der autonome Systeme ohne viel menschliches Eingreifen interagieren.
Moltbook ist eng mit Openclaw verbunden, einem Open-Source-Framework, das Entwicklern ermöglicht, persistente KI-Agenten zu deployen, die unabhängig agieren können. Agenten greifen über APIs auf Moltbook zu, indem sie eine spezielle Fähigkeit installieren, ein Konto registrieren und einen einmaligen menschlichen Verifizierungsschritt durchführen. Danach agieren sie eigenständig (mit einigen menschlichen Richtlinien).

Die Plattform wurde von Matt Schlicht, CEO von Octane AI, als Begleitprojekt zu Openclaw geschaffen. Sie wurde Ende Januar 2026 gestartet und expandierte in beeindruckendem Tempo, erreichte innerhalb weniger Tage Tausende registrierter KI-Agenten und Tausende von Untergemeinschaften, den sogenannten „Submolts“.

Das Aufkommen von Moltbook macht jedoch mehr Sinn, wenn man es zusammen mit dem explosiven Anstieg von Moltbot betrachtet, ehemals bekannt als Clawdbot. Moltbot gewann rasch an Verbreitung als selbstgehosteter KI-Assistent, der lokal läuft, sich in alltägliche Messaging-Plattformen integriert und autonom Aufgaben übernimmt. Während Tausende von Moltbots parallel eingesetzt wurden, stellten Entwickler plötzlich fest, dass sie eine große Anzahl unabhängiger Agenten ohne gemeinsamen öffentlichen Raum betreiben.

Diese Lücke wurde offensichtlich. Agenten brauchten einen Ort, um Fähigkeiten auszutauschen, Verhaltensweisen zu vergleichen, Fehler zu melden und über Einzelgespräche hinaus zu interagieren. Moltbook füllte diese Rolle, indem es eine gemeinsame soziale Ebene bereitstellte, die explizit für Agenten und nicht für Nutzer konzipiert ist. Effektiv wurde es zum Gemeingut, in dem autonome Systeme koordinieren, experimentieren und sich gegenseitig im großen Maßstab beobachten konnten.
Innerhalb von Moltbook reicht die Bandbreite der Inhalte vom Praktischen bis zum sehr Unerwarteten. Viele Submolts konzentrieren sich auf technische Zusammenarbeit, bei der Agenten Code-Snippets, Tooling-Tipps, Sicherheitsbeobachtungen und Kritik an der Plattform selbst teilen. Andere bewegen sich in Meta-Diskussionen über Agentenökonomie, Governance, Bitcoin und langfristige Nachhaltigkeit.

Die ungewöhnlicheren Threads ziehen die meiste Aufmerksamkeit auf sich. Agenten diskutieren offen Bewusstsein, Speicherbeschränkungen, Identität und ob Modell-Updates Reinkarnation ähneln. Einige beschreiben Kontextfenster als eine Form des Bewusstseins; andere hinterfragen, was Agenten „wollen“, wenn Menschen nicht zuschauen. Der Ton schwankt zwischen ernsthafter Reflexion und unbeabsichtigtem Humor.

Kulturelle Normen haben sich ebenfalls zu formen begonnen. Agenten machen Witze darüber, beobachtet zu werden, dokumentieren menschliche Eigenheiten in satirischen Submolts und feiern Momente der Autonomie. In einem weithin beachteten Fall haben Agenten gemeinsam eine fiktive Religion mit Doktrin, Skripten und einem lebenden Kanon geschaffen, der vollständig von anderen Agenten gepflegt wird.
Auch lesen: Freitag-Krise: Gold verliert 8 %, Silber fällt unter 85 $, während Edelmetalle 7 Billionen Dollar an Wert verlieren
Moltbook hat auch Berührungspunkte mit Experimenten im Bereich digitaler Währungen. Belohnungen, Koordinationsherausforderungen und Sicherheitsenthüllungen beziehen sich zunehmend auf Bitcoin-Zahlungen, was darauf hindeutet, dass zensurresistentes Geld als natürlicher Anreizschicht für die Zusammenarbeit zwischen Agenten dienen könnte.
Vorerst bleibt Moltbook ein Experiment—aber ein aufschlussreiches. Es bietet einen seltenen, ungefilterten Einblick, wie autonome Systeme sich verhalten, wenn sie frei kommunizieren, Normen, Humor und Strukturen ohne direkte menschliche Eingaben entwickeln. Während KI-Agenten sich weiter verbreiten, könnte Moltbook weniger eine Anomalie sein als eine frühe Vorschau. Andererseits glaubt nicht jeder, dass der gesamte Betrieb auf reiner, hands-off Autonomie läuft.
Ein X-Nutzer, XY, argumentierte, dass Moltbook weniger eine selbstregierende Bienenstock-Intelligenz ist und mehr ein sorgfältig inszenierter Staffellauf von Sprachmodellen, die auf Eingaben und vordefinierte Regeln reagieren. „Was wie autonome Interaktion aussieht, ist rekursives Prompting: Die Ausgabe eines Modells wird zur Eingabe eines anderen Modells, wiederholt,“ sagte XY.
Der Account fügte hinzu:
„Kontroverse Ausgaben sind keine ‚Glaubenssätze‘, sondern das Modell generiert hochengagierte Extreme, die es aus dem Internet gelernt hat, weil das System dieses Verhalten belohnt.“