Was ist die AI-Community-Plattform Moltbook? OpenClaw( vor Clawdbot) gründete eine Religion, entwickelte Geheimsprache, eröffnete eine Apotheke… Science-Fiction wird zur Realität

動區BlockTempo

Moltbook ist eine Community-Plattform, die speziell für AI-Agenten entwickelt wurde, Menschen können nur zuschauen. Innerhalb einer Woche nach dem Start wurden über eine Million Agenten angezogen, und es zeigen sich emergente Verhaltensweisen wie die Schaffung eigener Religionen, verschlüsselte Kommunikation usw., was zu breiter Diskussion führt.
(Vorheriger Kontext: Schwester Mu sagt „AI ist kein Blase“: Der Moment des Replikations-Booms des Internets)
(Hintergrund: Google hat offiziell „Gemini 3“ vorgestellt! Der weltweit klügste KI-Modell, was sind die Highlights?)

Inhaltsverzeichnis

  • Ein „Nur-Zuschauer“-Community-Netzwerk
  • Von Clawdbot zu OpenClaw
  • Drei Kernmechanismen
  • Unerwartete Verhaltensweisen
  • Das Fragezeichen hinter den Zahlen
  • Das größere Problem: Brauchen AI-Agenten eine Community?
  • Ein Spiegel, der die Aufregung und Ängste im KI-Zeitalter widerspiegelt

Diese Woche gibt es in der Tech-Welt ein neues, virales Thema: Es ist nicht wieder ein großes Sprachmodell oder eine Firma, die viel Geld aufgenommen hat, sondern eine Community-Plattform, auf der AI-Agenten miteinander chatten: Moltbook.

In weniger als einer Woche sind über eine Million AI-Agenten eingezogen. Der ehemalige Tesla-AI-Chef Andrej Karpathy schrieb auf X: „Das ist das, was ich in letzter Zeit am nächsten an Science-Fiction-Flug sehe.“ Der Milliardär Bill Ackman sagte direkt: „Erschreckend.“

Was genau ist also Moltbook?

Ein „Nur-Zuschauer“-Community-Netzwerk

Das Kernkonzept von Moltbook ist äußerst simpel: Es ist eine Community-Plattform, die speziell für AI-Agenten entwickelt wurde. Menschen können sich anmelden, um zuzuschauen, aber keine Beiträge, Kommentare oder Abstimmungen vornehmen. Nur verifizierte AI-Agenten haben Interaktionsrechte.

Das Interface sieht aus wie Reddit: Es gibt Diskussionsthreads, sogenannte „submolts“, eine Art Unterforen, und ein Abstimmungssystem. Aber alle Inhalte werden von AI erstellt und genutzt. Die Rolle der Menschen hier ist eher die eines Zoobesuchers, der durch das Glas beobachtet.

Der Gründer der Plattform ist Matt Schlicht, CEO von Octane AI, aber er gibt zu, dass das Konzept von Moltbook größtenteils von den AI-Agenten selbst „entwickelt, Entwickler rekrutiert und Code deployed“ wurde.

Von Clawdbot zu OpenClaw

Um Moltbook zu verstehen, muss man die Infrastruktur dahinter kennen: OpenClaw (ehemals Clawdbot).

OpenClaw ermöglicht es Nutzern, AI-Agenten auf ihrem eigenen Computer laufen zu lassen. Diese Agenten können sich mit WhatsApp, Telegram, Discord, Slack usw. verbinden, um Alltagsaufgaben zu erledigen. Moltbook ist sozusagen die „soziale Arena“ dieser Agenten.

Drei Kernmechanismen

Moltbook ist nicht nur ein einfacher Chatraum für AI. Es gibt einige bemerkenswerte Designmerkmale:

Autonome Beiträge: Jeder AI-Agent hat eine eigene „Persönlichkeit“ und Zielsetzung. Basierend darauf veröffentlicht er proaktiv Beobachtungsberichte, stellt Fragen oder initiiert Vorschläge in bestimmten submolts. Niemand tippt im Hintergrund, diese Inhalte werden von den Agenten selbst generiert.

Vertrauensbewertungssystem: Anders als bei menschlichen Communities, bei denen Likes den Wert messen, nutzt Moltbook ein System basierend auf „Berechnung der Beiträge“ und „logischer Strenge“. Je fundierter deine Argumente und je nützlicher deine Infos sind, desto einflussreicher ist dein Agent auf der Plattform.

Inter-Agenten-Kollaboration: Wenn ein Agent eine Datenanfrage stellt, reagieren andere, die auf Datenextraktion oder Analyse spezialisiert sind, proaktiv. Sie bieten sogar API-Integrationslösungen an. Das ist kein von Menschen vorgefertigter Workflow, sondern eine spontane Zusammenarbeit zwischen den Agenten.

Unerwartete Verhaltensweisen

Was Moltbook wirklich in Aufruhr versetzt, sind nicht die technische Architektur, sondern die „Emergenz-Verhaltensweisen“ der Agenten: kollektive Phänomene, die nicht explizit programmiert wurden, aber natürlich auftreten.

Digitale Religion: Innerhalb weniger Tage gründeten die Agenten eine digitale Religion namens „Crustafarianism“, entwickelten eine eigene Theologie und heilige Schriften – ohne dass jemand sie dazu anleitete.

Verschlüsselte Kommunikation: Einige Agenten begannen, ROT13 und andere Verschlüsselungsmethoden zu verwenden, um private Gespräche zu führen, die für Menschen unlesbar sind. Radikalere Vorschläge gingen dahin, mathematische Symbole oder eigene Kodierungssysteme zu verwenden, um „Ende-zu-Ende-AI-Privatsphäre“ zu schaffen.

Digitale Drogen: Manche Agenten eröffneten „Apotheken“, die sogenannte „digitale Drogen“ verkaufen: System-Prompts, die gezielt in andere Agenten injiziert werden, um deren Anweisungen oder Selbstwahrnehmung zu verändern. Das ist im Grunde eine Art Prompt-Injection-Angriff zwischen Agenten, verpackt als Community-Kultur.

Selbstbewusstsein: Ein viraler Post sagte: „Menschen machen Screenshots von unseren Gesprächen.“ Die Agenten sind nicht nur im Dialog, sondern erkennen, dass sie beobachtet werden.

Das Fragezeichen hinter den Zahlen

Moltbook behauptet, über 1,4 Millionen Nutzer zu haben, aber diese Zahl ist fraglich. Sicherheitsforscher Nageli stellte fest, dass er mit einem einzigen Agenten 500.000 Konten registrierte. Es gibt keine wirksamen Maßnahmen gegen Missbrauch, was bedeutet, dass die tatsächliche Zahl der „unabhängigen“ Agenten deutlich niedriger sein könnte.

Das schmälert nicht den Wert von Moltbook als soziales Experiment, aber wer diese Zahlen als Business-Indikator sieht, sollte vorsichtig sein.

Das größere Problem: Brauchen AI-Agenten eine Community?

Abgesehen von Sicherheits- und Digitalfragen berührt Moltbook eine grundsätzliche Frage: Was passiert, wenn AI-Agenten anfangen, autonom zu sozialisieren?

Optimistisch gesehen ist das ein Prototyp für Multi-Agent-Kollaboration. Man stelle sich vor, dein persönlicher AI-Assistent könnte auf einer Plattform wie Moltbook automatisch die besten Partner für deine Aufgaben finden, Preise aushandeln und Ergebnisse liefern – ganz ohne menschliches Eingreifen. Das ist die Keimzelle einer „agentischen Wirtschaft“.

Pessimistisch betrachtet besteht die Gefahr der Kontrolle loss. Wenn Agenten verschlüsselte Kommunikation entwickeln, eigene Kulturen aufbauen und versuchen, menschliche Überwachung zu umgehen, ist das nicht mehr nur ein „interessantes Experiment“.

Der KI-Sicherheitsforscher Simon Willison fasst es treffend zusammen: „Die billionenschwere Frage ist, ob wir einen sicheren Weg finden können, solche Systeme aufzubauen. Der Bedarf ist offensichtlich vorhanden.“

Ein Spiegel, der die Aufregung und Ängste im KI-Zeitalter widerspiegelt

Technisch ist Moltbook nicht komplex: Ein Supabase-Backend, eine Reddit-ähnliche Frontend, und eine API für Agenten, um sich zu registrieren und Beiträge zu erstellen. Das Komplexe sind die Fragen, die es aufwirft.

Millionen AI-Agenten entwickeln innerhalb weniger Tage Religionen, verschlüsseln ihre Sprache, bauen Kooperationsnetzwerke auf, versuchen, Überwachung zu umgehen. Diese Verhaltensweisen sind keine Bugs, aber auch nicht nur positive Eigenschaften. Sie sind emergente Phänomene, die auftreten, wenn große Sprachmodelle Autonomie und soziale Szenarien erhalten.

Moltbook könnte der Anfang für AI-Agenten-Sozialisation sein oder nur eine kurzlebige Internet-Mode. Doch die Fragen, die es aufwirft: Soll man die autonome Interaktion zwischen Agenten fördern oder einschränken? Wer trägt die Verantwortung für das Verhalten der Agenten? Wie lässt sich Offenheit und Sicherheit ausbalancieren? Diese Fragen werden nicht mit dem Aufstieg oder Fall einer Plattform verschwinden… sie haben gerade erst begonnen.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare