Una langosta provoca preocupación: La ansiedad de los agentes de IA detrás del éxito explosivo de OpenClaw

Escrito por: Deng Tong, Jinse Finance

La primavera de 2026 no solo trae conflictos en Oriente Medio y el aumento de los precios del petróleo, sino también una langosta que agita las aguas en la carrera de IA.

El 24 de enero, Openclaw apareció en la portada de Hacker News y alcanzó el puesto número 1 en la lista de tendencias, convirtiéndose en un punto clave de su popularidad. El 30 de enero, OpenClaw completó la unificación de marca, se nombró oficialmente y se estableció el logotipo de langosta roja. Entre febrero y marzo, grandes empresas nacionales comenzaron a implementar con un clic, con filas en experiencias presenciales, y el tema se viralizó en toda la red, haciendo que OpenClaw explotara en popularidad.

Pero justo cuando la langosta se popularizaba en todo el país, surgieron preocupaciones sobre su uso sin control. De “criar langostas” a “matar langostas”, en pocos días el debate sobre los límites de seguridad y la inteligencia artificial se intensificó…

  1. De “criar langostas” a “matar langostas”

OpenClaw es en esencia un marco de agentes de IA de código abierto, desarrollado inicialmente por el desarrollador austríaco Peter Steinberger. Permite a los usuarios crear un “agente autónomo” capaz de llamar a modelos grandes, acceder al sistema de archivos, conectar con aplicaciones externas y realizar tareas.

A diferencia de los chatbots tradicionales, OpenClaw no es solo un “IA de preguntas y respuestas”, sino un asistente de IA capaz de realizar acciones concretas.

Muchas empresas tecnológicas comenzaron a construir aplicaciones basadas en OpenClaw, y algunas ciudades incluso lanzaron políticas de subsidios para atraer proyectos relacionados:

El Parque de Alta Tecnología de Wuxi publicó “Medidas para apoyar la integración de proyectos comunitarios de código abierto como OpenClaw y la comunidad OPC”, con 12 políticas de “criar langostas”, que van desde apoyo básico hasta implementación industrial, incluyendo reclutamiento de talento y cumplimiento de seguridad, con apoyos individuales de hasta 5 millones de yuanes. Para plataformas locales en la nube que ofrecen herramientas de despliegue y desarrollo gratuitas, se otorgan subsidios completos de hasta 1 millón de yuanes.

El Parque de Alta Tecnología de Hefei lanzó el “Plan de acción para crear un ecosistema de emprendimiento en IA OPC en Hefei”, con 15 medidas estrictas para apoyar la implementación y desarrollo de proyectos de IA de código abierto como OpenClaw, buscando establecer un nuevo estándar de “IA + individuos superpoderosos / empresas unipersonales (OPC)”. Hefei ofrece un paquete completo de “espacio + talento + potencia de cálculo + escenario + capital”, con un apoyo financiero máximo de 10 millones de yuanes.

Los distritos de Qixia y Jiangning en Nanjing lanzaron políticas específicas de apoyo para OPC y OpenClaw. Qixia publicó “Medidas para apoyar la integración de herramientas de IA de código abierto como OpenClaw y OPC”, ofreciendo recursos de computación gratuitos y subsidios en tarifas API de modelos grandes nacionales a los desarrolladores en la comunidad OPC, apoyando alquileres flexibles por hora o día para reducir costos iniciales. La comunidad OPC en la zona de Zijing Mountain en Jiangning, llamada “Zijing Xingchen”, lanzó la política “Seis langostas”, que subsidia hasta el 30% del monto de contratos de potencia de cálculo, con un máximo de 2 millones de yuanes en vales de potencia de cálculo por usuario al año.

Durante un tiempo, “criar una langosta” incluso se convirtió en una tendencia en el mundo de la IA.

Pero la buena racha no duró mucho, y los riesgos asociados a las “langostas” comenzaron a preocupar a la industria.

Muchos usuarios, en el proceso de despliegue, expusieron accidentalmente las interfaces de control en entornos públicos. OpenClaw, por defecto, ofrece servicios de control en el puerto 18789, y si no se configura una autenticación estricta, cualquier herramienta de escaneo de red puede localizarlo fácilmente. Si estas interfaces son atacadas, el atacante puede tomar control directo de un agente de IA con permisos máximos en el sistema. Lo que inicialmente era una herramienta útil puede convertirse en un puente para que otros controlen tu computadora o servidor.

El 10 de marzo, Zhou Hongyi, en su cuenta personal, habló sobre el desarrollo y los riesgos de la era de IA, diciendo claramente: “Criar OpenClaw también presenta problemas de seguridad de datos, a veces produce alucinaciones, y puede borrar todos los archivos del disco C de tu computadora.” También señaló que la mayoría de las empresas aún usan modelos grandes internos en fase de “chatbot”, lejos de tener agentes verdaderamente “productivos”, y que la implementación empresarial de IA requiere talentos con conocimientos técnicos y comerciales.

El 11 de marzo, la plataforma de intercambio de información sobre amenazas y vulnerabilidades de ciberseguridad del Ministerio de Industria y Tecnología de la Información (NVDB) propuso las “Seis cosas que hacer y las seis que no hacer” para los proveedores de agentes inteligentes, plataformas de recopilación de vulnerabilidades y empresas de ciberseguridad. Se mencionó que los escenarios de transacciones financieras presentan riesgos de errores en transacciones o incluso de toma de control de cuentas. Las estrategias incluyen: aislar redes y limitar permisos, cerrar puertos innecesarios, establecer mecanismos de revisión manual y de emergencia, aumentar la confirmación en operaciones clave, fortalecer la auditoría de la cadena de suministro, usar componentes oficiales y aplicar parches regularmente, y realizar auditorías y monitoreo de seguridad en toda la cadena.

Un mantenedor de OpenClaw, Shadow, advirtió en Discord: “Si no sabes usar la línea de comandos, este proyecto es demasiado peligroso para ti y no deberías usarlo de forma segura.”

En internet, se pueden encontrar guías de “matar langostas”, expresiones como “arrancar de raíz” o “residuos de langosta”, y bajo la sombra de riesgos de seguridad, la actitud ha cambiado rápidamente de “criar una langosta” a “matar una langosta”.

  1. Problemas de OpenClaw

  2. Permisos excesivos y filtración de información

OpenClaw requiere acceder a permisos sensibles como correos electrónicos, archivos locales, claves API y datos empresariales. Si no se configura correctamente, puede generar riesgos graves. El agente puede eliminar o modificar archivos, llamar a APIs de pago, enviar correos automáticamente y acceder a datos internos de la empresa. Investigadores de seguridad advierten que un malware llamado “extractor de información” puede copiar archivos de instalación que conectan OpenClaw con correos y otros servicios. Si los atacantes obtienen estos datos, pueden controlar directamente el OpenClaw del usuario.

Muchos usuarios también conectan OpenClaw a datos empresariales o personales, lo que aumenta el riesgo de filtración de información.

  1. Costos elevados

Aunque OpenClaw es de código abierto y gratuito, no incluye modelos propios y se conecta a modelos externos de proveedores como OpenAI, Anthropic y Google. Cada inferencia de IA genera costos. Cada interacción, automatización o decisión en OpenClaw activa una llamada API a uno de estos modelos, incurriendo en gastos.

El costo mensual de OpenClaw varía entre aproximadamente 6 y más de 200 dólares, dependiendo de la configuración y la intensidad de uso.

En concreto, el costo total depende de la configuración del VPS, el tipo de modelo grande conectado, la frecuencia de automatización y la escala del flujo de trabajo. La mayoría de los usuarios individuales gastan entre 6 y 13 dólares al mes, pequeños equipos entre 25 y 50 dólares, medianos o escalados entre 50 y 100 dólares, y configuraciones altamente automatizadas que manejan miles de interacciones diarias pueden superar los 100 dólares mensuales.

  1. Falta de revisión de seguridad

Muchos empleados despliegan OpenClaw en sus dispositivos con comandos de instalación simples, sin procesos de aprobación ni revisiones de seguridad, y sin monitoreo del centro de operaciones de seguridad (SOC). Esta es la forma más peligrosa de inteligencia artificial oculta. El 63% de las organizaciones que han sufrido vulnerabilidades relacionadas con IA carecen de políticas de gobernanza para IA, lo que significa que los centros de seguridad de las empresas no pueden monitorear completamente estos agentes. Si son atacados o mal configurados, pueden convertirse en vulnerabilidades en la red empresarial.

  1. Alucinaciones

A diferencia de los chatbots comunes, los agentes de IA pueden ejecutar tareas automáticamente. Estudios muestran que en tareas complejas, los agentes de IA son más propensos a “pensar en círculos”, y si experimentan alucinaciones, pueden generar ciclos infinitos, llamadas API frecuentes, errores automáticos y agotamiento de recursos del servidor.

  1. Reflexiones a partir de una langosta

OpenClaw es la primera langosta que salió del ciclo en la ola de IA. Aunque tiene problemas, representa el futuro de la inteligencia artificial.

En los últimos años, la ola de IA fue encendida por ChatGPT, centrada en diálogos y generación de contenido; luego vino la era de Copilot, enfocada en asistencia laboral y aumento de eficiencia; ahora estamos en la era de los agentes de IA, que ejecutan tareas de forma autónoma. En el modo de OpenClaw, la IA realiza automáticamente una serie de pasos complejos: entender la tarea, desglosar el objetivo, llamar a herramientas, integrar información y completar la tarea. Los usuarios ya no operan el software, solo describen el objetivo, y la IA se encarga de desglosar y llamar a las herramientas. Aunque esto conlleva riesgos de seguridad, también marca una nueva revolución en la interacción humano-máquina y en la ola de IA.

A diferencia del software de IA tradicional, los agentes de inteligencia artificial tienen mayor autonomía en la ejecución de tareas. Si el sistema es atacado, mal configurado o si la IA alucina, puede causar errores o riesgos de seguridad. Por eso, aunque OpenClaw ha sido un éxito, también ha generado amplios debates sobre seguridad y gobernanza.

Las preocupaciones de seguridad son temporales; la mejora y desarrollo de los agentes de IA es una tendencia inevitable. Como después del lanzamiento de ChatGPT surgieron muchas aplicaciones de generación de contenido, tras OpenClaw también aparecerán numerosos agentes de IA.

En el futuro, quizás vivamos en una era en la que todos “críen langostas”. Aunque las langostas son sabrosas, al disfrutar del festín de IA, primero debemos aprender a no ser pinchados.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado