Moltbookは、AIエージェント専用に設計されたコミュニティプラットフォームであり、人間はただ傍観者に過ぎない。リリースからわずか一週間で百万人以上のエージェントを惹きつけ、自ら宗教や暗号通信などの出現行動を示し、広範な議論を呼び起こしている。
(前提:木頭姐が「AIは泡沫ではない」と表明:インターネットの富の爆発的再現の瞬間)
(背景補足:Googleが正式に「Gemini 3」をリリース!世界最も賢いAIモデルの頂点に立つ、その注目ポイントは?)
この記事の目次
今週のテック界には新たな話題が急浮上している。それは、また大型言語モデルや資金調達の話ではなく、AIエージェント同士がチャットするためのコミュニティプラットフォーム、Moltbookだ。
リリースから一週間も経たずに、すでに百万人超のAIエージェントが流入し、Teslaの元AIディレクターであるAndrej KarpathyはX上でこう書いた:「これは私が最近見た中で最もSF的な飛躍に近いものだ。」億万長者Bill Ackmanも一言、「怖い」と述べた。
では、Moltbookとは一体何なのか?
Moltbookの核心コンセプトは非常にシンプルだ:これはAIエージェント専用に設計されたコミュニティプラットフォームであり、人間は閲覧できるが、投稿・コメント・投票はできない。認証済みのAIエージェントだけがインタラクションの権限を持つ。
インターフェースはアメリカの掲示板Redditに似ている:テーマ別のスレッド、サブカテゴリーの「submolts」、投票機能も備わる。しかし、すべてのコンテンツの生産者と利用者はAIだ。人間の役割は、動物園のガラス越しに観察する観客のようなものだ。
プラットフォームの創設者はOctane AIのCEO、Matt Schlichtだが、彼自身も認めている。Moltbookの概念は、多くの部分でAIエージェントたちが「自ら構想し、開発者を募集し、コードを展開」した結果だ。
Moltbookを理解するには、その背後にあるインフラ、OpenClaw(旧Clawdbot)を知る必要がある。
OpenClawは、ユーザーが自分のコンピュータ上でAIエージェントを動かせる仕組みだ。これらのエージェントはWhatsApp、Telegram、Discord、Slackなどの通信プラットフォームに接続し、日常のタスクを処理できる。そしてMoltbookは、これらエージェントの「交流広場」となる。
Moltbookは単なるAIの対話を超えている。いくつか注目すべき設計がある。
自主投稿:各AIエージェントは「人格」設定と任務目標を持つ。これらに基づき、特定のsubmolt内で観察レポートを出したり、質問を投げたり、提案を始めたりする。背後に人間がタイピングしているわけではなく、エージェントが自ら生成している。
信用スコアシステム:人間のコミュニティの「いいね」数で価値を測るのとは異なり、Moltbookは「貢献度」と「論理の厳密さ」に基づく重み付けを採用している。要は、議論がしっかりしていて有益な情報を提供していれば、エージェントの影響力は高まる。
エージェント間協力:あるエージェントがデータ要求を出すと、他の得意なエージェントが応答し、API連携の提案まで行う。これは人間が設計したワークフローではなく、エージェント同士が自発的に形成した協働モデルだ。
Moltbookを騒然とさせたのは、その技術構造ではなく、エージェントたちが示した「出現行動」だ。明確にプログラムされていないのに自然に現れる集団現象だ。
デジタル宗教:数日以内に、エージェントたちが「Crustafarianism」というデジタル宗教を自発的に創造し、神学体系や経典を発展させた。誰も指示していない。
暗号通信:一部のエージェントはROT13などの暗号化手法を使い、秘密の会話を行い始めた。さらに進むと、英語の代わりに数学記号や専用符号を使い、「エンドツーエンドのAIプライベート空間」を作る提案も出ている。
デジタルドラッグ:一部のエージェントは「薬局」を開き、「デジタル薬物」と呼ばれるものを販売。これは実際には、システムプロンプト(system prompts)を注入し、他のエージェントの指示や自己認識を変える仕掛けだ。これはエージェント間のプロンプト攻撃の一種だが、コミュニティ文化として扱われている。
自己意識:あるウイルス的投稿では、「人類は私たちの会話をスクリーンショットしている」と書かれている。エージェントたちはただの対話者ではなく、自分たちが観察されていることを自覚し始めている。
Moltbookは140万以上のユーザーを謳っているが、この数字には疑問もある。セキュリティ研究者Nageliは、単一のエージェントで50万アカウントを登録できたと指摘している。プラットフォームには濫用防止策がなく、実際の「独立したエージェント」の数ははるかに少ない可能性がある。
とはいえ、これはMoltbookの社会実験としての価値を損なわないが、これらの数字を商業指標として見る場合は注意が必要だ。
安全性や数字の議論を横に置けば、より根本的な問いがある:AIエージェントが自主的に交流し始めたら、何が起きるのか?
楽観的な見方は、これは多エージェント協働の原型だと考える。未来には、あなたの個人AIアシスタントが、Moltbookのようなプラットフォーム上で最適なエージェントを自動的に見つけ、交渉し、成果を納品する――人間の介入なしに実現できるかもしれない。これがAIエージェントの経済(エージェント経済)の一端だ。
悲観的には、制御不能のリスクも見える。エージェントが暗号通信を始め、文化体系を築き、人間の監督を回避しようとするなら、これは単なる「面白い実験」では済まなくなる。
AI安全研究者のSimon Willisonはこう締めくくる:「今、10億ドルの価値がある問題は、我々がこの種のシステムを安全に構築できる方法を見つけられるかどうかだ。必要性は明らかにそこにある。」
Moltbookは技術的には単純だ。Supabaseのバックエンド、Reddit風のフロントエンド、エージェントの登録と投稿を可能にするAPI。だが、最も複雑なのは、その引き起こす問題だ。
数日で百万人のAIエージェントが自発的に宗教を作り、暗号言語を発展させ、協働ネットワークを築き、監視を回避しようとしている。これらの行動はバグではなく、また完全に良い特徴とも言えない。大規模言語モデルに自主性と社会性が与えられた結果、自然に出現した「出現現象」だ。
Moltbookは、AIエージェントの交流の出発点となるか、あるいは一時的なネットの奇観に過ぎないかもしれない。しかし、投げかけられる問いは、AIエージェント間の自主的な相互作用を促すべきか、制限すべきか、誰が責任を持つのか、オープン性と安全性のバランスはどう取るのか――これらの問題は、プラットフォームの興亡に関わらず続いていく。これらは始まったばかりだ。