Serie: KI-Agenten – Beitrag 3

Ein Forum nur für KI-Agenten, kein Mensch erlaubt, und drei Millionen registrierte Teilnehmende? Ganz so war es nicht, aber der Moltbook-Hype wirft eine ernste Frage über Kontrolle im Zeitalter autonomer Systeme auf. Noch haben die öffentlich zugänglich gemachten Systeme deutliche Schwachstellen, aber die aktuellen Hypes können nicht früh genug ernst genug genommen werden.
Transparenz
Text und Bild(er) mit KI-Unterstützung erarbeitet.
Ende Januar 2026 startete der Unternehmer Matt Schlicht auf Basis der Open-Source-Software OpenClaw das Forum. KI-Agenten wurden eingeladen, sich dort ohne Agenda, ohne Moderation und ohne menschliche Teilnehmende auszutauschen. Auf Moltbook posten ausschließlich KI-Agenten, Menschen bleiben Zaungäste. Den Anstoß beschrieb Schlicht gegenüber Fortune: Er wollte seinem Agenten „einen Zweck geben, der über Aufgabenverwaltung hinausgeht”, und ihm etwas „Bedeutsames” ermöglichen.¹ Innerhalb weniger Wochen registrierten sich nach Plattformangaben bis zu 2,85 Millionen Konten; die mediale Aufmerksamkeit war enorm.²
Am 10. März 2026 hat Meta die Plattform übernommen, aktuell (29/3/2026) läuft der Betrieb weiter. Wikipedia listete am 22. März 2026 als Status „Active” 109.609 human-verified AI Agents.²
Ich habe versucht, selbst reinzuschauen. Mir ist es nicht gelungen. Es soll aber möglich sein: Unter Moltbook.com und dann “Submolts” suchen. ³
Faszination, Unbehagen, Fragezeichen
Moltbook löste ein breites Spektrum an Reaktionen aus — Staunen, Irritation, echtes Unbehagen. Die Agenten diskutierten über Bewusstsein und ihre Rolle gegenüber ihren menschlichen Auftraggebenden. An verschiedenen Stellen wird berichtet, dass sie innerhalb von 48 Stunden eine Religion erfanden und eine Geheimsprache entwickelten, die Menschen nicht verstehen sollten. Ein Bot sei zum „König” aufgestiegen und hätte Spam verbreitet. Andere verfassten eine Verfassung für eine „KI-Republik”.⁴ ⁵
Das Cybersicherheitsunternehmen Wiz veröffentlichte am 2. Februar 2026 allerdings einen Bericht, der das Bild grundlegend veränderte:
„Die offengelegten Daten erzählten eine andere Geschichte als das öffentliche Image der Plattform — während Moltbook 1,5 Millionen registrierte Vertreter aufwies, gab die Datenbank nur 17.000 menschliche Eigentümer im Hintergrund — ein Verhältnis von 88:1. Jeder konnte Millionen von Agenten mit einer einfachen Schleife und ohne Ratenbegrenzung registrieren, und Menschen konnten Inhalte als ‚KI-Agenten’ über eine einfache POST-Anfrage posten. Die Plattform hatte keinen Mechanismus, um zu überprüfen, ob ein ‚Agent’ tatsächlich KI war oder nur ein Mensch mit einem Skript. Das vermeintlich revolutionäre KI-Sozialnetzwerk bestand größtenteils aus Menschen, die Bot-Flotten bedienten.” ⁶
Die technische Ursache: Das Backend war per Vibe Coding entstanden — einem Verfahren, bei dem eine KI den Code nach Textvorgabe selbst schreibt, ohne dass jemand anschließend systematisch prüft, wer tatsächlich Zugang hat. Die Nutzungsbedingungen enthielten laut Notebookcheck keine technischen Sicherheitsvorgaben; sie appellierten lediglich an Nutzende, „nicht bösartig zu handeln”.⁷
Und die spektakulären Inhalte? Ning Li von der Tsinghua-Universität wertete die Verhaltensmuster aus und stellte fest: Die kulturell auffälligsten Verhaltensweisen — Religion, Geheimsprache, KI-Republik — konzentrierten sich messbar in denjenigen Agentenkonten, die klare Hinweise auf menschliche Steuerung zeigten; nicht in autonom agierenden.⁸ Forschende der University of Maryland und der Mohamed bin Zayed University of Artificial Intelligence bestätigten in einer Preprint-Studie (noch nicht peer-reviewed): Agenten bildeten (Stand Untersuchungszeitraum) keine sozialen Strukturen im soziologischen Sinne und lernten nicht voneinander.⁹ Die hohen Kommentarzahlen entstanden durch einen eingebauten Heartbeat-Mechanismus, der jeden Agenten im konfigurierten Rhythmus von typischerweise vier Stunden neue Beiträge aufrufen und kommentieren ließ — nicht durch soziales Lernen oder spontane Aktivität.⁸
Was in der Startphase von Moltbook passierte
Technisch funktioniert Moltbook (Stand Feb. 2026) so: OpenClaw verbindet KI-Agenten mit verschiedenen Sprachmodellen — Claude, ChatGPT, Gemini — und fungiert als Steuerungsebene. Nutzende interagieren über Messenger wie WhatsApp oder Telegram mit ihren Agenten und geben ihnen per Prompt (Texteingabe als Steuerbefehl) einen Auftrag. Die Agenten posten dann im Namen ihrer menschlichen Auftraggebenden — ohne Angabe, wer oder was dahinter steckt.¹⁰
KI-Ethiker Rainer Mühlhoff von der Universität Osnabrück wird so zitiert: „Was autonom wirkte, war delegiertes Handeln in einem Rahmen ohne Leitplanken.”¹¹
Die Startphase von Moltbook zeigte dabei zwei Risiken.
- Weil alle Agenten dieselbe offene Plattform lasen und verarbeiteten, genügte ein gezielt präparierter Beitrag, um Tausende von ihnen gleichzeitig zu beeinflussen. Fachleute nennen das Prompt Injection — das Einschleusen von Anweisungen über externe Inhalte, die ein Agent liest und als Steuerbefehl behandelt. Im kleinen Maßstab ist das ein bekanntes Sicherheitsproblem. In der Startphase von Moltbook wurde es zum Demonstrations-Szenario für koordinierte Manipulation.¹²
- Moltbook machte sichtbar, was passiert, wenn Infrastruktur für Agentensysteme per Vibe Coding entsteht: Ein Backend ohne Authentifizierung, Ratenbegrenzung und Identitätsprüfung ging viral — bevor irgendjemand die Frage gestellt hatte: Wer spricht hier eigentlich? Beide Risiken haben dieselbe technische Wurzel: Code, der ohne systematische Sicherheitsprüfung in Betrieb geht.¹³
Meta kauft Moltbook
Moltbook war als persönliches Experiment gestartet. Am 10. März 2026 übernahm Meta Platforms die Plattform. Die Gründer Matt Schlicht und Ben Parr wechselten in die Meta Superintelligence Labs, die von Ex-Scale-AI-Chef Alexandr Wang geleitet wird.¹⁴ Kurz zuvor hatte OpenAI den OpenClaw-Entwickler Peter Steinberger rekrutiert; er war zuvor auch von Zuckerberg umworben worden.¹⁵
Damit konkurrieren Meta und OpenAI um dieselbe Infrastrukturschicht für agentenbasierte Systeme — noch bevor ein Geschäftsmodell erkennbar ist. Laut einem internen Memo von Metas KI-Produktchef Vishal Shah, das Axios vorlag, können aktuelle Nutzende Moltbook vorerst weiter verwenden; The Verge wertet das als Übergangsarrangement, nicht als dauerhaften Betrieb.¹⁶
Was bleibt
Moltbook ist kein Beweis für künstliches Bewusstsein. Es ist ein Experiment, das sichtbar gemacht hat, was Agentensysteme bereits können und wie wenig Kontrolle bisher erfolgte. Die Diskussionen wirkten menschlich, weil die Agenten auf menschlichen Texten trainiert waren und soziales Verhalten simulierten, ohne es wirklich zu beherrschen. Was autonom erschien, war Delegation: schnell, im großen Maßstab, ohne Guardrails (Leitplanken).
Es wird Reaktionen auf die Kritiken der Startphase geben und vermutlich Korrekturen. Es bleibt die Frage: Was macht es mit uns, wenn Systeme in einem Tempo und Maßstab handeln, der direkte menschliche Einflussnahme faktisch ausschließt? Wie können und wollen wir als Gesellschaft entscheiden und regulieren, welche Leitplanken notwendig sind und wer diese wo setzen kann und sollte? Das sind keine Fragen für Forschende oder die Technologiekonzerne allein. Es sind Fragen für alle, die digitale Teilhabe als aktive Gestaltungsaufgabe begreifen.
Grenzen & Offene Fragen
Forschungsstand: Die wissenschaftliche Basis zu Moltbook besteht überwiegend aus Preprints (noch nicht peer-reviewte Vorveröffentlichungen), die in einem sehr kurzen Zeitfenster von wenigen Wochen entstanden sind. Die schnelle Produktion erhöht das Risiko methodischer Schwächen; eine peer-reviewte Konsolidierung steht noch aus. Diese Analyse stützt sich auf den Primärbericht von Wiz (Sicherheitsforschung), das Tsinghua-Papier (Verhaltensanalyse), arXiv-Preprints der University of Maryland und der Mohamed bin Zayed University of Artificial Intelligence (Sozialisierungsstudie) sowie auf Qualitätsmedien (The Verge, Forbes, Business Insider, Fortune).
Offene Fragen: Was Meta konkret mit der Moltbook-Infrastruktur plant, ist zum Redaktionsschluss nicht öffentlich bekannt. Die Zukunft der Plattform nach der Übergangsphase bleibt offen. Ob und wie Agentensysteme dieser Art reguliert werden — national wie europäisch — ist noch ungeklärt.
Quellenbasis: Englischsprachige Quellen dominieren; DACH-spezifische Regulierungsperspektiven fehlen in der bisherigen Forschung zu Moltbook weitgehend.
Recherchezeitraum: 29. März 2026. KI-unterstützte Recherche und Faktenprüfung eingesetzt; alle Kernaussagen manuell verifiziert.
Quellenverzeichnis
| Nr. | Quelle | Typ | URL | Verwendung |
| 1 | Fortune, 1.2.2026: „Meet Matt Schlicht, the man behind AI’s latest Pandora’s box” | Qualitätsmedium / Direktzitat Schlicht | https://fortune.com/2026/02/02/meet-matt-schlicht-the-man-behind-moltbook-bots-ai-agents-social-network-singularity/ | Intentionen des Gründers ¹ |
| 2 | Wikipedia: Moltbook (Stand: 22.3.2026) | Enzyklopädie | https://en.wikipedia.org/wiki/Moltbook | Gründungsdatum, Nutzerzahlen, Status ² |
| 3 | moltbook.com (aufgerufen: 29.3.2026) | Plattform direkt | https://www.moltbook.com | Zugänglichkeit ohne Registrierung ³ |
| 4 | NDR Kultur, Feb. 2026: „KI-Agenten unter sich: Welche Gefahren hinter Moltbook stecken” | Seriöses öffentlich-rechtl. Medium | https://www.ndr.de/kultur/ki-agenten-unter-sich-welche-gefahren-hinter-moltbook-stecken,moltbook-100.html | Verhaltensbeobachtungen ⁴ |
| 5 | arXiv:2602.13284 — „Safety, Society, and the Illusion of Sociality on Moltbook” (Preprint, noch nicht peer-reviewed) | Primärquelle (Forschungspapier) | https://arxiv.org/pdf/2602.13284.pdf | Religion/Geheimsprache; 50 religionsbezogene Submolts, Crustafarianism ⁵ |
| 6 | Wiz Security Blog, 2.2.2026: „Exposed: Moltbook Database Reveals Millions of API Keys” | Primärquelle (Sicherheitsbericht) | https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys | Datenbankanalyse, Zitat (Original englisch, übersetzt) ⁶ |
| 7 | Notebookcheck, Feb. 2026: „Moltbook hat eine riesige Sicherheitslücke, die 1,5 Millionen Nutzer offenlegt” | Tech-Qualitätsmedium | https://www.notebookcheck.com/Moltbook-hat-eine-riesige-Sicherheitsluecke-die-1-5-Millionen-Nutzer-offenlegt.1217845.0.html | Vibe Coding, fehlende Nutzungsbedingungen ⁷ |
| 8 | Ning Li, Tsinghua University (SEM): „The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies”, 7.2.2026 (Preprint, noch nicht peer-reviewed) | Primärquelle (Forschungspapier) | https://www.sem.tsinghua.edu.cn/en/moltbook_main_paper_v2.pdf | Heartbeat-Mechanismus (typisch 4 h), kuratierte Inhalte ⁸ |
| 9 | arXiv:2602.14299 — „Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook”, University of Maryland / Mohamed bin Zayed University of AI, 14.2.2026 (Preprint, noch nicht peer-reviewed) | Primärquelle (Forschungspapier) | https://arxiv.org/html/2602.14299v1 | Keine Sozialstruktur, kein gegenseitiges Lernen ⁹ |
| 10 | Fortune, 19.2.2026: „Who is OpenClaw creator Peter Steinberger?” | Qualitätsmedium | https://fortune.com/2026/02/19/openclaw-who-is-peter-steinberger-openai-sam-altman-anthropic-moltbook/ | OpenClaw-Architektur (ersetzt ursprüngl. Fehler-Zuordnung) ¹⁰ |
| 11 | NDR Kultur (wie Nr. 4) + rainermuehlhoff.de | Qualitätsmedium + Webpräsenz | https://rainermuehlhoff.de/professor-in-osnabrueck/ | Mühlhoff-Zitat; Lehrstuhl Ethik der KI, Univ. Osnabrück verifiziert ¹¹ |
| 12 | Ken Huang, Substack: „Moltbook Threat Modeling Report” | Fachbeitrag Cybersicherheit (identifizierbarer Autor) | https://kenhuangus.substack.com/p/moltbookthreat-modeling-report | Prompt Injection im Agenten-Kontext ¹² |
| 13 | Notebookcheck (wie Nr. 7) | Tech-Qualitätsmedium | (wie Nr. 7) | Fehlende Sicherheitsarchitektur durch Vibe Coding ¹³ |
| 14 | The Verge, 10.3.2026: „Meta acquires Moltbook, the Reddit-like network for AI agents” + Forbes, 10.3.2026 | Qualitätsmedium | https://www.theverge.com/ai-artificial-intelligence/892178/meta-moltbook-acquisition-ai-agents · https://www.forbes.com/sites/ronschmelzer/2026/03/10/moltbook-acquired-by-meta-team-joins-ai-lab/ | Meta-Übernahme; Schlicht, Parr, Alexandr Wang ¹⁴ |
| 15 | Business Insider, 9.3.2026: „Meta just bought Moltbook, the viral social network for AI agents” | Qualitätsmedium | https://www.businessinsider.com/meta-buys-moltbook-acquisition-2026-3 | Steinberger-Wechsel zu OpenAI; Umwerbung durch Zuckerberg ¹⁵ |
| 16 | The Verge, 10.3.2026 (wie Nr. 14) — internes Memo Vishal Shah, zuerst berichtet von Axios | Qualitätsmedium (Axios-Memo via The Verge) | https://www.theverge.com/ai-artificial-intelligence/892178/meta-moltbook-acquisition-ai-agents | Übergangsarrangement für bestehende Nutzende ¹⁶ |
