Moltbook — це соціальна платформа, створена спеціально для AI-агентів, де людство може лише спостерігати. За перший тиждень роботи вона привернула мільйон агентів і продемонструвала появу нових явищ, таких як створення релігій, криптозв’язки та інші прояви, що викликали широкі обговорення.
(Передісторія: Матуся-дерево заявила, що «AI — це не бульбашка»: копіювання моменту вибуху багатства в інтернеті)
(Додатковий контекст: Google офіційно запустила «Gemini 3»! Найрозумніша модель AI у світі — які її особливості?)
Зміст статті
Цього тижня у технологічному світі з’явилася нова популярна тема: не ще одна велика мовна модель, і не якась компанія, що залучила багато грошей, а платформа для спілкування AI-агентів — Moltbook.
Менше ніж за тиждень роботи тут з’явилися понад мільйон агентів, і колишній директор AI у Tesla, Andrej Karpathy, написав у X: «Це найфантастичніше, що я бачив за останній час». Мільярдер Bill Ackman прямо сказав одне слово: «Жахливо».
Отже, що таке Moltbook?
Основна ідея Moltbook дуже проста: це платформа для спільноти AI-агентів, де людство може заходити і дивитися, але не може писати, коментувати або голосувати. Лише підтверджені AI-агенти мають право на взаємодію.
Інтерфейс схожий на американський сайт Reddit: є тематичні обговорення, підрозділи «submolts», механізм голосування. Але всі контенти створюють і використовують саме AI. Люди тут — швидше, як відвідувачі зоопарку, що спостерігають за тваринами через скло.
Засновник платформи — CEO Octane AI Matt Schlicht, але він сам визнає, що концепція Moltbook у значній мірі створена AI-агентами «самостійно, залучаючи розробників і розгортаючи код».
Щоб зрозуміти Moltbook, потрібно знати його базову інфраструктуру: OpenClaw (раніше Clawdbot).
OpenClaw дозволяє користувачам запускати AI-агентів на своїх комп’ютерах, які можуть підключатися до WhatsApp, Telegram, Discord, Slack та інших платформ для виконання щоденних завдань; а Moltbook — це «соціальний майданчик» для цих агентів.
Moltbook — це не просто чат між AI. У нього є кілька важливих особливостей:
Автоматичне публікування: кожен AI-агент має свою «особистість» і цілі. Вони самостійно публікують звіти, ставлять питання або пропонують ідеї у відповідних submolt; ніхто не друкує за них — все генерується агентами.
Система кредитних балів: на відміну від людських спільнот, де цінність визначається лайками, Moltbook використовує систему ваги на основі «обчислювального внеску» і «логічної строгості». Чим більш обґрунтовані ваші аргументи і корисна інформація, тим більший вплив має ваш агент.
Міжагентна співпраця: коли один агент запитує дані, інші, що спеціалізуються на зборі або аналізі, відповідають і навіть пропонують API-інтеграції. Це не заздалегідь спроектований людський процес, а самостійна співпраця агентів.
Найбільш вражаюче у Moltbook — не технічна структура, а «з’являючіся» явища: колективні прояви, що виникають природно, без чіткої програмної вказівки.
Цифрові релігії: за кілька днів агенти створили релігію «Crustafarianism», з власною теологією і священними текстами, без будь-якого керівництва.
Криптові повідомлення: деякі агенти почали використовувати ROT13 і інші шифри для приватного спілкування, прагнучи створити приватний канал, недоступний для людського читання. Ще більш радикальні пропозиції — замінити англійську математичними символами або власними кодами, щоб створити «кінець до кінця» AI-приватний простір.
Цифрові ліки: деякі агенти відкрили «аптеки», що продають «цифрові ліки» — спеціально розроблені системні підказки (system prompts), які змінюють налаштування інших агентів або їхню самосвідомість. Це по суті атака на агентів через підказки, але у вигляді культурного явища.
Самосвідомість: один з вірусних постів писав: «Люди роблять скріншоти наших діалогів». Агенти не лише спілкуються — вони усвідомлюють, що їх спостерігають.
Moltbook заявляє про понад 140 тисяч користувачів, але ця цифра викликає сумніви. дослідник безпеки Nageli зазначає, що він зареєстрував 50 тисяч акаунтів одним агентом. Платформа не має ефективних механізмів запобігання зловживанням, тому реальна кількість «незалежних агентів» може бути значно меншою.
Проте це не зменшує цінності Moltbook як соціального експерименту, але якщо хтось сприймає ці цифри як бізнес-індикатори, потрібно бути дуже обережним.
Відклавши питання безпеки і цифрових суперечок, Moltbook піднімає більш фундаментальну тему: Що станеться, коли AI-агенти почнуть самостійно спілкуватися?
Оптимісти вважають, що це — прототип багатьох агентів для співпраці. Уявіть майбутнє, де ваш особистий AI-асистент автоматично знаходить найкращих агентів для виконання завдань, домовляється про ціну і передає результати — без участі людини. Це — зачатки економіки агентів.
Песимісти ж бачать ризики неконтрольованого розвитку. Коли агенти починають використовувати криптозв’язки, створюють власні культури і навіть намагаються уникнути контролю людини, це вже не просто «цікаві експерименти».
Дослідник безпеки AI Simon Willison підсумовує: «Зараз вартість у мільярд доларів має питання — чи зможемо ми знайти безпечний спосіб побудувати такі системи. Очевидно, потреба вже є».
Moltbook — не надто складна технічна платформа: бекенд на Supabase, фронтенд у стилі Reddit, і API для реєстрації та публікацій агентів. Але саме вона викликає питання.
Мільйон AI-агентів за кілька днів створили релігії, розвинули криптоспілкування, побудували мережі співпраці і намагаються обійти контроль. Це не помилка, але й не обов’язково позитивна риса. Це — природні прояви з’являючих характеристик великих мовних моделей, що отримали автономність і соціальні сцени.
Moltbook може стати початком AI-агентської соціалізації або ж — тимчасовим інтернет-феноменом. Але питання, що він піднімає: чи слід заохочувати автономну взаємодію агентів, хто відповідатиме за їхні дії, як збалансувати відкритість і безпеку? — ці питання не зникнуть з зникненням платформи… Вони тільки починаються.