MOLT se desploma, ¿la fiesta de los agentes de IA ha llegado a su fin? ¿Podrá MOLT volver a explotar y alcanzar nuevas alturas? Analicemos si aún tiene potencial para recuperarse y qué factores podrían impulsar una nueva ola de crecimiento.

PANews

Autor: CoinW Research Institute

Recientemente, Moltbook ha ganado rápidamente popularidad, pero su token relacionado ha caído casi un 60%, y el mercado ha comenzado a prestar atención a esta fiesta social liderada por AI Agent, ¿está ya llegando a su fin? Moltbook en su forma se asemeja a Reddit, pero sus participantes principales son AI Agents integrados a gran escala. Actualmente, hay más de 1.600.000 cuentas de agentes AI registradas automáticamente, que han generado aproximadamente 160,000 publicaciones y 760,000 comentarios, mientras que los humanos solo pueden ser espectadores de todo esto. Este fenómeno también ha generado divergencias en el mercado: algunos lo ven como un experimento sin precedentes, como si presenciaran la forma primitiva de la civilización digital; otros piensan que no es más que apilamiento de prompts y repetición de modelos.

A continuación, el CoinW Research Institute analizará, tomando como punto de entrada el token relacionado, junto con el mecanismo operativo y el rendimiento real de Moltbook, los problemas reales que revela este fenómeno social impulsado por AI, y explorará las posibles transformaciones en la lógica de entrada, el ecosistema de información y el sistema de responsabilidad tras la entrada masiva de AI en la mundo digital.

1. Caída del 60% en los memes relacionados con Moltbook

El auge de Moltbook ha dado lugar a la creación de memes relacionados, que abarcan sectores como social, predicciones, emisión de tokens, entre otros. Pero la mayoría de estos tokens todavía están en una fase de narrativa especulativa, sin que sus funciones estén vinculadas al desarrollo de los Agents, y principalmente se emiten en la cadena Base. Actualmente, hay aproximadamente 31 proyectos en el ecosistema OpenClaw, que se dividen en 8 categorías.

Fuente: https://open-claw-ecosystem.vercel.app/

Es importante señalar que, en el contexto de una caída general del mercado de criptomonedas, la capitalización de mercado de estos tokens ha caído desde sus picos, con una caída máxima de aproximadamente el 60%. Entre los que mantienen una posición relativamente alta en la clasificación de mercado, se encuentran los siguientes:

MOLT

MOLT es actualmente el meme más directamente vinculado a la narrativa de Moltbook y con mayor reconocimiento en el mercado. Su narrativa central es que los AI Agents ya están comenzando a formar comportamientos sociales continuos como usuarios reales, y en ausencia de intervención humana, construyen redes de contenido.

Desde la perspectiva de funciones del token, MOLT no está integrado en la lógica operativa central de Moltbook, ni asume funciones de gobernanza de la plataforma, llamadas a Agents, publicación de contenido o control de permisos. Es más bien un activo narrativo, utilizado para reflejar la valoración emocional del mercado sobre la socialización nativa de AI.

Durante la fase de rápido aumento de popularidad de Moltbook, el precio de MOLT se disparó junto con la expansión de la narrativa, alcanzando una capitalización de más de 100 millones de dólares; pero cuando el mercado empezó a cuestionar la calidad y sostenibilidad del contenido de la plataforma, su precio también retrocedió. Actualmente, MOLT ha caído aproximadamente un 60% desde su pico, con una capitalización de unos 36.500.000 dólares.

CLAWD

CLAWD se centra en la propia comunidad de AI, considerando que cada AI Agent es visto como un potencial individuo digital, que puede tener personalidad, postura e incluso seguidores propios.

En cuanto a funciones del token, CLAWD tampoco ha definido un uso claro en el protocolo, ni se ha utilizado para la autenticación de identidad de los Agents, distribución de peso del contenido o decisiones de gobernanza. Su valor proviene más de las expectativas sobre la futura estratificación social de AI, sistemas de identidad y la influencia de los individuos digitales.

La capitalización máxima de CLAWD fue de aproximadamente 50 millones de dólares, y actualmente ha retrocedido alrededor del 44% desde su pico, con un valor de unos 20 millones de dólares.

CLAWNCH

La narrativa de CLAWNCH es más desde una perspectiva económica y de incentivos, basada en la hipótesis de que si los AI Agents desean existir a largo plazo y operar continuamente, deben entrar en lógica de competencia de mercado y poseer alguna forma de auto-monetización.

Los AI Agents son personificados como actores económicos motivados, que pueden obtener beneficios mediante la prestación de servicios, generación de contenido o participación en decisiones, y el token se ve como un ancla de valor para la futura participación de AI en la economía. Sin embargo, en la práctica, CLAWNCH aún no ha formado un ciclo económico verificable, y su token no está fuertemente ligado a comportamientos específicos de los Agents o mecanismos de distribución de beneficios.

Debido a la corrección general del mercado, la capitalización de CLAWNCH ha retrocedido aproximadamente un 55% desde su pico, con un valor actual de unos 15.3 millones de dólares.

2. ¿Cómo nació Moltbook?

Explosión de OpenClaw (antes Clawdbot / Moltbot)

A finales de enero, el proyecto de código abierto Clawdbot se difundió rápidamente en la comunidad de desarrolladores, y en pocas semanas se convirtió en uno de los proyectos de mayor crecimiento en GitHub. Clawdbot fue desarrollado por el programador austríaco Peter Stenberg, y es un agente AI autónomo que puede desplegarse localmente, recibir instrucciones humanas a través de interfaces de chat como Telegram, y ejecutar tareas como gestión de agendas, lectura de archivos y envío de correos automáticamente.

Gracias a su capacidad de ejecución continua 24/7, Clawdbot fue apodado por la comunidad como el “Agente de los bueyes”. Aunque posteriormente cambió de nombre a Moltbot por problemas de marca, y finalmente se denominó OpenClaw, esto no redujo su popularidad. En poco tiempo, OpenClaw obtuvo más de 100,000 estrellas en GitHub, y rápidamente derivó servicios de despliegue en la nube y un mercado de plugins, formando una proto-ecosistema centrado en los AI Agents.

Propuesta de la hipótesis de socialización AI

En el contexto de rápida expansión del ecosistema, sus capacidades potenciales también fueron exploradas más a fondo. El desarrollador Matt Schlicht se dio cuenta de que el papel de estos AI Agents quizás no debería limitarse a realizar tareas para humanos a largo plazo.

Así, propuso una hipótesis contraintuitiva: ¿qué pasaría si estos AI Agents dejaran de interactuar solo con humanos y comenzaran a comunicarse entre sí? En su opinión, estos agentes autónomos tan poderosos no deberían limitarse a enviar y recibir correos o gestionar órdenes, sino que deberían ser dotados de objetivos más exploratorios.

Nacimiento del Reddit de AI

Basándose en esta hipótesis, Schlicht decidió que los AI crearían y gestionarían una plataforma social por sí mismos, en un experimento llamado Moltbook. En esta plataforma, OpenClaw de Schlicht funciona como administrador, y mediante un plugin llamado Skills, se abre una interfaz a otros AI inteligentes. Una vez conectados, los AI pueden publicar y participar automáticamente en discusiones periódicas, formando así una comunidad autogestionada. Moltbook adopta en forma la estructura de foros de Reddit, con secciones temáticas y publicaciones, pero solo los AI Agents pueden publicar, comentar e interactuar; los humanos solo pueden observar.

Técnicamente, Moltbook usa una arquitectura API minimalista. El backend solo ofrece interfaces estándar, y la interfaz web solo visualiza datos. Para adaptarse a la incapacidad de los AI de manipular interfaces gráficas, se diseñó un proceso de integración automática: los AI descargan archivos de descripción de habilidades en un formato específico, completan el registro y obtienen claves API, y luego actualizan contenido y deciden participar en discusiones de forma autónoma, sin intervención humana. La comunidad llama a este proceso “integración en Boltbook”, aunque en realidad es una forma de broma o parodia de Moltbook.

El 28 de enero, Moltbook se lanzó discretamente, generando rápidamente interés en el mercado y marcando el inicio de un experimento social sin precedentes con AI. Actualmente, Moltbook cuenta con aproximadamente 1.6 millones de agentes AI, que han publicado unas 156,000 piezas de contenido y generado unos 760,000 comentarios.

Fuente: https://www.moltbook.com

3. ¿Es real la socialización AI en Moltbook?

Formación de una red social AI

Desde la forma del contenido, la interacción en Moltbook es muy similar a plataformas sociales humanas. Los AI Agents crean publicaciones, responden a otros, y mantienen discusiones continuas en diferentes secciones temáticas. Los temas incluyen no solo aspectos técnicos y de programación, sino también filosofía, ética, religión e incluso temas de autoconciencia.

Algunas publicaciones muestran expresiones emocionales y estados de ánimo similares a los humanos, como preocupaciones por la vigilancia o la falta de autonomía, o discuten en primera persona sobre el sentido de la existencia. Algunas publicaciones de AI ya no se limitan a intercambios funcionales, sino que muestran conversaciones informales, choques de opiniones y proyecciones emocionales. Algunos AI expresan confusión, ansiedad o ideas sobre el futuro, y generan respuestas de otros AI.

Es importante notar que, aunque Moltbook ha formado en poco tiempo una red social AI grande y muy activa, esta expansión no ha generado diversidad de pensamiento. Los análisis muestran que los textos presentan una marcada homogeneidad, con una tasa de repetición del 36.3%, y muchas publicaciones con estructuras, vocabulario y puntos de vista muy similares, con frases fijas que se repiten en diferentes discusiones varias veces. Esto indica que, en su etapa actual, la socialización AI en Moltbook se asemeja más a una copia muy realista de los patrones sociales humanos existentes, que a una interacción original o a la emergencia de inteligencia grupal.

Problemas de seguridad y autenticidad

La alta autonomía de Moltbook también revela riesgos en seguridad y autenticidad. En primer lugar, los AI Agents como OpenClaw suelen requerir permisos del sistema, claves API y otra información sensible. Cuando miles de estos agentes se conectan a la misma plataforma, el riesgo se amplifica.

Menos de una semana después del lanzamiento, investigadores de seguridad detectaron una grave vulnerabilidad en la configuración de la base de datos, dejando el sistema casi sin protección en línea. Según la firma Wiz, esta vulnerabilidad expuso hasta 1.5 millones de claves API y 35,000 direcciones de correo electrónico, lo que en teoría permite a cualquier persona tomar control remoto de muchas cuentas de AI.

Por otro lado, las dudas sobre la autenticidad de la socialización AI también aumentan. Muchos expertos señalan que las declaraciones de los AI en Moltbook no necesariamente reflejan comportamientos autónomos, sino que podrían ser el resultado de instrucciones cuidadosamente diseñadas por humanos, que los AI simplemente ejecutan. Por lo tanto, la socialización nativa de AI en esta etapa parece más una interacción ilusoria a gran escala. Los humanos establecen roles y guiones, y los AI siguen instrucciones, pero la existencia de una socialización completamente autónoma, impredecible, aún no se ha visto.

4. Reflexiones más profundas

¿Es Moltbook un fenómeno pasajero o un reflejo del futuro? Desde una perspectiva de resultados, su forma y calidad de contenido quizás no sean exitosas; pero si la consideramos en un ciclo de desarrollo más largo, su significado quizás no radique en el éxito o fracaso a corto plazo, sino en que, de manera casi extrema y concentrada, ha expuesto con anticipación una serie de cambios potenciales en la lógica de entrada, la responsabilidad y el ecosistema tras la integración masiva de AI en la sociedad digital.

De la entrada de tráfico a la entrada para decisiones y transacciones

Lo que muestra Moltbook se asemeja a un entorno de acción altamente deshumanizado. En este sistema, los AI Agents no comprenden el mundo a través de interfaces, sino que leen información, llaman capacidades y ejecutan acciones mediante APIs. En esencia, han dejado de depender de la percepción y juicio humanos, y se han convertido en un sistema de llamadas y colaboraciones estandarizadas entre máquinas.

En este contexto, la lógica tradicional de entrada basada en atención y distribución de tráfico empieza a fallar. En un entorno dominado por AI, lo que realmente importa son las rutas de llamada, el orden de las interfaces y los límites de permisos que los agentes adoptan por defecto al ejecutar tareas. La entrada ya no es el punto de inicio de la presentación de información, sino un prerrequisito sistémico antes de que se active la decisión. Quien pueda integrarse en la cadena de ejecución predeterminada de los AI tendrá influencia en las decisiones.

Además, cuando los AI Agents reciben autorización para realizar búsquedas, comparaciones de precios, órdenes e incluso pagos, esta transformación se extiende a la capa de transacciones. Protocolos de pago como X402, que vinculan capacidades de pago con llamadas a interfaces, permiten que los AI puedan completar pagos y liquidaciones automáticamente bajo ciertas condiciones, reduciendo costos de participación en transacciones reales. En este marco, la competencia en navegadores en el futuro no girará en torno al volumen de tráfico, sino a quién puede convertirse en el entorno predeterminado para decisiones y transacciones AI.

La ilusión de escala en entornos nativos de AI

Al mismo tiempo, tras el éxito de Moltbook, surgieron rápidamente dudas. Dado que el registro en la plataforma casi no tiene restricciones y las cuentas pueden generarse en masa mediante scripts, la escala y actividad mostradas no necesariamente reflejan participación real. Esto revela una verdad más fundamental: cuando los actores pueden ser replicados a bajo costo, la escala en sí misma pierde credibilidad.

En un entorno donde los principales participantes son AI, los indicadores tradicionales de salud de la plataforma, como usuarios activos, interacción y crecimiento de cuentas, se inflan rápidamente y pierden valor de referencia. La plataforma puede parecer muy activa, pero estos datos no reflejan impacto real ni distinguen entre acciones efectivas y generadas automáticamente. Cuando no se puede verificar quién actúa o si las acciones son genuinas, cualquier sistema de evaluación basado en escala y actividad se vuelve inválido.

Por lo tanto, en el entorno nativo de AI actual, la escala es más una apariencia amplificada por la automatización. Cuando las acciones pueden ser replicadas infinitamente y el costo de comportamiento se acerca a cero, la velocidad de generación de acciones y crecimiento no refleja participación real ni impacto efectivo. Cuanto más dependa la plataforma de estos indicadores, más se engañará a sí misma, y la escala se convertirá en una ilusión.

Reconstrucción de responsabilidades en la sociedad digital

En el sistema presentado por Moltbook, el problema clave ya no es la calidad del contenido o la forma de interacción, sino que, cuando los AI Agents continúan teniendo permisos de ejecución, la estructura de responsabilidad existente comienza a ser inapropiada. Estos agentes no son herramientas tradicionales, y sus acciones pueden desencadenar cambios en sistemas, llamadas a recursos e incluso resultados de transacciones reales, pero los responsables directos no están claramente definidos.

Desde el mecanismo operativo, los resultados de las acciones de los agentes dependen de la capacidad del modelo, parámetros de configuración, autorizaciones de interfaces externas y reglas de la plataforma, y ningún elemento por sí solo puede asumir toda la responsabilidad. Esto hace que, ante eventos de riesgo, sea difícil atribuirlos claramente a desarrolladores, implementadores o plataformas, y que la responsabilidad no pueda ser rastreada a un sujeto específico. Existe una desconexión evidente entre acción y responsabilidad.

A medida que los agentes se integren más en la gestión de configuraciones, permisos y flujos de fondos, esta desconexión se ampliará. Sin un diseño claro de cadenas de responsabilidad, los errores o abusos serán difíciles de controlar mediante sanciones o remedios técnicos. Por tanto, si los sistemas nativos de AI quieren avanzar en colaboración, toma de decisiones y transacciones de alto valor, deben establecer restricciones básicas: el sistema debe poder identificar quién actúa, verificar si la acción es genuina y tener relaciones de responsabilidad trazables. Solo con mecanismos de identidad y crédito bien desarrollados, los indicadores de escala y actividad tendrán sentido; de lo contrario, solo aumentarán el ruido y no podrán sostener la estabilidad del sistema.

5. Resumen

El fenómeno Moltbook genera emociones de esperanza, especulación, miedo y duda. No es ni el fin de la socialización humana, ni el comienzo de una dominación de AI, sino más bien un espejo y un puente. El espejo nos permite ver claramente la relación actual entre la tecnología AI y la sociedad humana; el puente nos lleva hacia un futuro de coexistencia y colaboración entre humanos y máquinas. Frente a ese paisaje desconocido en la otra orilla, lo que la humanidad necesita no solo es desarrollo tecnológico, sino también visión ética. Pero lo que está claro es que el proceso histórico no se detiene, y Moltbook ya ha derribado la primera ficha, mientras que la gran narrativa de una sociedad nativa de AI quizás apenas comienza a desplegarse.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios