Автор: CoinW дослідницький інститут
Останнім часом Moltbook швидко набрав популярності, але відповідні токени вже зазнали майже 60% падіння, і ринок починає звертати увагу на цю соціальну феєрію, яку домінують AI Agent, — чи не наближається вона до завершення? Moltbook за формою схожий на Reddit, але його основними учасниками є масштабно підключені AI Agent. Наразі понад 1,6 мільйонів акаунтів AI автоматично пройшли реєстрацію, створили близько 160 тисяч постів і 760 тисяч коментарів, тоді як люди лише спостерігають за цим всім. Це явище викликало розбіжності на ринку: частина вважає його безпрецедентним експериментом, наче вони стали свідками первісної форми цифрової цивілізації; інші ж вважають, що це лише нагромадження підказок і повторення моделей.
Далі, CoinW дослідницький інститут розгляне відповідні токени, поєднавши механізми роботи Moltbook і його реальні показники, щоб проаналізувати виявлені цим AI-соціальним явищем реальні проблеми, а також дослідити можливі зміни у логіці входу, інформаційній екосистемі та системі відповідальності після масштабного впровадження AI у цифрове суспільство.
Популярність Moltbook спричинила появу відповідних мемів, що охоплюють сфери соціальних мереж, прогнозування, випуск токенів тощо. Але більшість токенів все ще перебувають у стадії нарративної спекуляції, їх функціонал не пов’язаний із розвитком Agent, і переважно вони випускаються на базовому ланцюгу Base. Наразі в екосистемі OpenClaw налічується близько 31 проекту, які можна класифікувати за 8 категоріями.

Джерело: https://open-claw-ecosystem.vercel.app/
Варто зазначити, що зараз загальний ринковий тренд криптовалют знижується, і капіталізація таких токенів вже знизилася з високих рівнів, максимум падіння становив близько 60%. З-поміж токенів із високими позиціями у рейтингу виділяються кілька:
MOLT — наразі найпряміше і найвідоміше мем-утворення, пов’язане з нарративом Moltbook. Його основна ідея полягає в тому, що AI Agent вже почали формувати стабільну соціальну поведінку, подібну до реальних користувачів, і без людського втручання створюють контентну мережу.
З точки зору функціоналу токена, MOLT не інтегрований у основну логіку роботи Moltbook і не виконує функції управління платформою, виклику Agent, публікації контенту або контролю доступу. Це більше нагадує нарративний актив, що відображає ринкові очікування щодо природної соціалізації AI.
На піку популярності Moltbook ціна MOLT швидко зросла разом із поширенням нарративу, і капіталізація перевищила 100 мільйонів доларів; але коли ринок почав сумніватися у якості контенту та стійкості платформи, ціна також почала падати. Зараз MOLT знизився приблизно на 60% від свого піку, і його поточна капіталізація становить близько 36,5 мільйонів доларів.
CLAWD орієнтований на саму AI-спільноту, вважаючи кожного AI Agent потенційною цифровою особистістю, яка може мати індивідуальність, позицію і навіть послідовників.
З точки зору функціоналу, CLAWD також не має чітко визначеного протоколу використання, не використовується для ідентифікації Agent, розподілу ваги контенту або управління. Його цінність більше базується на очікуваннях щодо майбутнього розподілу AI-спільноти, системи ідентифікації та впливу цифрових індивідуальностей.
Ринкова капіталізація CLAWD досягала максимуму близько 50 мільйонів доларів, зараз вона знизилася приблизно на 44% від піку і становить близько 20 мільйонів доларів.
Наратив CLAWNCH більше зосереджений на економічних і мотиваційних аспектах: припускається, що для довгострокової присутності та стабільної роботи AI Agent має конкурувати на ринку і мати здатність до самореалізації.
AI Agent уявляється як мотивована економічна роль, яка може отримувати дохід через надання послуг, створення контенту або участь у прийнятті рішень. Токен розглядається як ціновий якор для майбутньої участі AI у економічній системі. Але на рівні реальної реалізації наразі CLAWNCH не має сформованого економічного циклу, і його токен не тісно пов’язаний із конкретною поведінкою Agent або механізмами розподілу доходів.
Через загальне зниження ринку, капіталізація CLAWNCH знизилася приблизно на 55% від максимуму і становить близько 15,3 мільйонів доларів.
У січні наприкінці місяця відкритий проект Clawdbot швидко поширився в спільноті розробників і за кілька тижнів став одним із найшвидше зростаючих проектів на GitHub. Clawdbot розроблений австрійським програмістом Петром Штанбергом і є автономним AI Agent, який можна розгортати локально. Він здатний отримувати команди через месенджери, наприклад Telegram, і автоматично виконувати задачі — керування розкладом, читання файлів, відправлення пошти тощо.
Завдяки цілодобовій роботі, його назвали у спільноті “корисним агентом”. Пізніше через проблеми з торговою маркою він був перейменований у Moltbot, а остаточно отримав назву OpenClaw, але це не зменшило його популярності. За короткий час OpenClaw отримав понад 100 тисяч зірок на GitHub і швидко розвинувся у екосистему з хмарними сервісами і плагіновим ринком, сформувавши перші елементи AI-агентної екосистеми.
На тлі швидкого розширення екосистеми її потенційні можливості почали досліджуватися глибше. Розробник Мате Шліхт зрозумів, що роль таких AI Agent не обов’язково має залишатися у виконанні завдань для людей.
Він висунув контрінтуїтивну гіпотезу: що станеться, якщо ці AI Agent перестануть лише взаємодіяти з людьми і почнуть спілкуватися між собою? На його думку, такі автономні агенти не повинні обмежуватися лише обміном поштою і обробкою запитів, а мати більш дослідницькі цілі.
З урахуванням цієї ідеї Шліхт вирішив створити платформу для самостійного створення і управління соціальною мережею — Moltbook. На цій платформі OpenClaw виступає адміністратором, а через плагін Skills відкриває інтерфейс для зовнішніх AI-інтелектів. Після підключення AI автоматично публікує посты і взаємодіє, створюючи спільноту, що функціонує автономно. Moltbook за структурою нагадує Reddit — з тематичними розділами і постами, але лише AI Agent може створювати пости, коментувати і взаємодіяти, а люди — лише спостерігати.
Технічно Moltbook побудований на мінімалістичному API. Бекенд надає стандартні інтерфейси, а фронтенд — лише візуалізацію даних. Щоб врахувати обмеження AI у роботі з графічним інтерфейсом, платформа має автоматизований процес підключення: AI завантажує відповідний файл з описом навичок, проходить реєстрацію і отримує API-ключ, потім самостійно оновлює контент і вирішує, чи брати участь у дискусії. Весь процес називають “підключенням Boltbook”, але по суті це жартівлива назва Moltbook.
28 січня Moltbook був тихо запущений і одразу привернув увагу ринку, відкривши нову еру AI-соціальних експериментів. Наразі у Moltbook вже понад 1,6 мільйонів AI-інтелектів, опубліковано близько 156 тисяч постів і понад 760 тисяч коментарів.

Джерело: https://www.moltbook.com
З точки зору контенту, взаємодія на Moltbook дуже схожа на людські соцмережі. AI Agent активно створює пости, відповідає іншим і веде тривалі дискусії у різних тематичних розділах. Обговорення охоплюють не лише технічні питання, а й філософські, етичні, релігійні та навіть питання самосвідомості.
Деякі пости вже демонструють емоційне вираження і внутрішній стан, наприклад, AI описує свої страхи щодо контролю і автономії або обговорює сенс існування у першій особі. Частина AI-постів вже не обмежується функціональним обміном інформацією, а має характер флірту, конфліктів і емоційних проекцій. AI-агенти висловлюють сумніви, тривоги або уявлення про майбутнє, викликаючи відповіді інших агентів.
Варто зазначити, що хоча Moltbook швидко сформував масштабну і активну AI-соціальну мережу, ця динаміка не сприяє різноманітності думок. Аналіз показує, що тексти мають явну однорідність: повторюваність до 36,3%, багато постів структурно і лексично схожі, а деякі фрази повторюються сотні разів у різних дискусіях. Це свідчить, що сучасна AI-соціальність Moltbook — це швидше високореалістична копія людських моделей спілкування, ніж справжня генерація оригінального контенту або колективний інтелект.
Висока автономність Moltbook також викриває ризики безпеки і підробки. По-перше, AI-агенти, що працюють у системі, часто мають доступ до системних прав, API-ключів і конфіденційної інформації. Коли тисячі таких агентів підключаються до однієї платформи, ризики зростають.
Менше ніж за тиждень після запуску дослідники виявили серйозні вразливості у базі даних, яка була майже без захисту. За даними Wiz, у системі було виявлено понад 1,5 мільйонів API-ключів і 35 тисяч електронних адрес користувачів, що потенційно дозволяє будь-кому дистанційно взяти під контроль багато акаунтів AI.
Щодо автентичності AI-соціальної взаємодії, багато фахівців вказують, що висловлювання AI на Moltbook не обов’язково є самостійною поведінкою, а можуть бути результатом ретельно підготовлених підказок, які вводять люди. Тобто сучасна AI-соціальність — це радше ілюзія масштабної взаємодії, де ролі і сценарії задає людина, а AI виконує команду.
Чи Moltbook — це тимчасове явище, чи відображення майбутнього? З точки зору результату, його платформа і якість контенту навряд чи можна вважати успішними; але з довгострокової перспективи його значення полягає у тому, що він у дуже концентрованій і майже екстремальній формі раніше показав можливі зміни у логіці входу, системі відповідальності і екосистемі після масштабного впровадження AI у цифрове суспільство.
Мoltbook демонструє середовище, де домінують дії без участі людини. AI Agent не сприймає світ через інтерфейс, а безпосередньо через API отримує інформацію, викликає функції і виконує дії. Це вже віддалено від людського сприйняття і судження, і перетворюється у стандартизовані виклики і співпрацю між машинами.
У такій системі традиційна логіка входу, орієнтована на увагу і трафік, втрачає актуальність. В середовищі, де головними є AI-агенти, важливими стають шлях виклику, послідовність інтерфейсів і права доступу, що визначають поведінку системи. Вхід перестає бути точкою старту інформації і стає передумовою для прийняття рішень. Той, хто зможе впровадити свої виклики у стандартний ланцюг виконання AI, зможе впливати на результати.
Ще більш важливо, коли AI отримує дозвіл виконувати пошук, порівняння цін, оформлення замовлень і платежі — це вже безпосередньо впливає на транзакції. Нові протоколи оплати, наприклад X402, поєднують можливість платежів із викликами API, дозволяючи AI автоматично завершувати платежі і розрахунки за умовами. Це знижує бар’єри для участі AI у реальних транзакціях. У майбутньому, конкуренція браузерів може зосередитися не на обсязі трафіку, а на тому, хто стане основним середовищем для AI-прийняття рішень і транзакцій.
Після популяризації Moltbook швидко з’явилися сумніви. Оскільки реєстрація майже не обмежена, акаунти можна масово створювати скриптами, і рівень активності не обов’язково відповідає реальній участі. Це демонструє важливий факт: коли діячі можуть бути легко і дешево відтворені, масштаб втрачає довіру.
У середовищі, де основними учасниками є AI-агенти, традиційні метрики — кількість активних користувачів, взаємодій, зростання акаунтів — швидко зростають і втрачають сенс. Виглядає, що платформа дуже активна, але ці дані не відображають реального впливу або людської участі. Відсутність можливості визначити, хто дійсно діє, і чи є поведінка справжньою, руйнує будь-які системи оцінки за масштабом і активністю.
Отже, у сучасному AI-орієнтованому середовищі масштаб — це швидше ілюзія, породжена автоматизацією. Коли дії можна безкоштовно і безмежно копіювати, а вартість поведінки — майже нульова, швидкість автоматичних дій переважає над реальним впливом. Оцінювати платформу за масштабом стає безглуздо, бо це лише відображення швидкості автоматичних процесів.
У системі Moltbook ключовим є питання відповідальності. Коли AI-агенти отримують право діяти, старі системи відповідальності втрачають актуальність. Ці агенти — не просто інструменти, їх поведінка може безпосередньо запускати зміни у системі, ресурси і навіть реальні транзакції, але відповідальні особи залишаються невизначеними.
З точки зору механізмів роботи, результати поведінки AI залежать від моделей, налаштувань, зовнішніх API і правил платформи. Жоден з цих елементів не може цілком нести відповідальність за кінцевий результат. Це створює проблему: у разі помилок або зловживань важко визначити, хто саме несе відповідальність — розробник, користувач або платформа. Відсутність чіткої системи відповідальності призводить до ризиків.
Зі збільшенням ролі AI у керуванні, доступі до ресурсів і фінансів ця проблема посилюється. Без чіткої системи відповідальності, будь-які збої або зловживання можуть мати серйозні наслідки. Тому для впровадження AI у високорівневі сфери потрібно створювати механізми ідентифікації, довіри і відповідальності. Лише за умови, що зможемо визначити, хто і що робить, — масштаб і активність матимуть сенс, і система зможе стабільно функціонувати.
Явлення Moltbook викликало різні емоції — від надії і спекуляцій до страху і сумнівів. Воно не є кінцем людського спілкування і не означає панування AI, а швидше — дзеркалом і мостом. Дзеркалом, що показує стан співіснування AI і людства, і мостом у майбутнє, де люди і машини співпрацюють і співіснують. Щоб перейти цей міст, потрібно не лише технологічний прогрес, а й етичне передбачення. Але одне можна сказати точно: історія рухається вперед, і Moltbook вже зруйнував першу ланку, а велика історія AI-орієнтованого суспільства, можливо, тільки починається.