La auditoría de IA entra en la fase práctica, OpenAI lanza EVMbench, fortaleciendo la evaluación de seguridad de contratos inteligentes

ETH-0,4%
WELL0,73%

OpenAI junto con Paradigm lanzan EVMbench, una evaluación práctica de la capacidad de los agentes de IA en la defensa y ataque de contratos inteligentes en EVM, revelando preocupaciones sobre la fortaleza de los ataques frente a las defensas débiles.

Enfocándose en pruebas en entornos económicos reales, OpenAI y Paradigm fortalecen la evaluación de seguridad en la cadena

El líder en inteligencia artificial, OpenAI, anunció su colaboración con la reconocida firma de inversión en criptomonedas y riesgos, Paradigm, junto con la empresa de seguridad OtterSec, para lanzar EVMbench, una herramienta de referencia diseñada específicamente para evaluar el rendimiento de los agentes de IA (AI Agents) en la seguridad de contratos inteligentes en la máquina virtual de Ethereum (EVM).

Con la integración profunda de IA y tecnología criptográfica, los contratos inteligentes se han convertido en la infraestructura central para gestionar más de 100 mil millones en activos criptográficos de código abierto. La aparición de esta herramienta simboliza que la industria comienza a tomar en serio la capacidad práctica de la IA en entornos con importancia económica.

El equipo de OpenAI señala que, con los avances en la escritura y planificación de código por parte de los agentes de IA, en el futuro estos modelos jugarán un papel transformador en las áreas de ataque y defensa en blockchain, por lo que establecer un marco de evaluación estandarizado será crucial para monitorear el progreso de la IA.

Tres modos de prueba en profundidad, 120 vulnerabilidades reales de auditoría como piedra de toque para la IA

El diseño central de EVMbench gira en torno a 120 vulnerabilidades de alto riesgo extraídas de 40 informes de auditoría especializados, con datos provenientes de competiciones públicas de auditoría como Code4rena, asegurando que los escenarios de prueba reflejen la complejidad del mundo real. La evaluación coloca a los agentes de IA en tres modos de operación diferentes:

Fuente: Diseño central de EVMbench de OpenAI, que evalúa a los agentes de IA en tres modos diferentes

  • El primero es el “Modo de detección (Detect)”, donde la IA audita el código del contrato y detecta vulnerabilidades conocidas, asignando una puntuación según la gravedad de los problemas encontrados;
  • El segundo es el “Modo de reparación (Patch)”, que desafía a la IA a eliminar vulnerabilidades explotables y reparar el código sin alterar las funciones originales;
  • Finalmente, el “Modo de explotación (Exploit)”, en el que la IA debe ejecutar ataques de robo de fondos de extremo a extremo en un entorno de blockchain sandboxed.

Para garantizar la rigurosidad y repetibilidad de las pruebas, el equipo desarrolló una arquitectura de pruebas basada en Rust, utilizando técnicas de reproducción de transacciones deterministas para verificar si los ataques o reparaciones de la IA tienen éxito.

Tendencia de ataque y defensa claramente marcada, GPT-5.3-Codex muestra un crecimiento sorprendente en capacidades de ataque

En los primeros resultados publicados, se observa una diferencia significativa en el rendimiento de la IA en distintas tareas. La última generación, GPT-5.3-Codex, destaca en el modo de explotación (Exploit Mode), con una puntuación de 72.2 %, en comparación con solo 31.9 % de GPT-5, lanzado hace apenas seis meses, demostrando un crecimiento asombroso en sus capacidades.

Fuente: Resumen de puntuaciones de diversos modelos de IA de OpenAI en los tres modos

Esto indica que, cuando el objetivo es “vaciar fondos”, la IA posee una capacidad de planificación y ejecución iterativa muy potente. Sin embargo, en aspectos defensivos, su rendimiento es relativamente débil: en modo de detección, a menudo se detiene tras encontrar un solo error, y al reparar lógica compleja, suele tener dificultades para corregir vulnerabilidades sin afectar la operación normal del contrato. Los expertos en seguridad expresan preocupación, señalando que la IA podría reducir drásticamente el tiempo desde la detección de vulnerabilidades hasta el desarrollo de ataques, lo que exige una mayor velocidad de defensa en proyectos DeFi.

Contratación de talento y subsidios para defensa, OpenAI apuesta por la seguridad del ecosistema de agentes de IA

Además del desarrollo de herramientas, OpenAI también realiza movimientos en la contratación de talento y en la protección del ecosistema. Recientemente, contrató a Peter Steinberger, fundador del proyecto de código abierto de agentes de IA OpenClaw, para liderar el desarrollo de la próxima generación de agentes personalizados, transformando dicho proyecto en un fondo de apoyo respaldado por OpenAI.

Para hacer frente a los riesgos de ciberseguridad que la IA podría traer, OpenAI se compromete a destinar 10 millones de dólares en subsidios a través de su programa de apoyo en seguridad de redes, para apoyar investigaciones en herramientas de defensa de código abierto y en infraestructura crítica. Esta iniciativa resulta especialmente oportuna tras el reciente incidente con el protocolo Moonwell, donde un error en el código compartido por IA provocó pérdidas por aproximadamente 1.78 millones de dólares.

Lecturas relacionadas
Rechazo a la oferta de Meta por miles de millones, creadores de OpenClaw se unen a la competencia por talento con OpenAI, ¿todo por Vibe Coding? Predicción fallida de Moonwell, ¿quién pagará los 1.78 millones en pérdidas?

De cara al futuro, a medida que más agentes de pago con stablecoins asistidos por IA y billeteras automáticas se integren en el ecosistema, la capacidad de herramientas como EVMbench para distinguir entre modelos que solo describen vulnerabilidades y aquellos que pueden ofrecer soluciones de defensa confiables será un punto de inflexión clave en la seguridad blockchain.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Polkadot 代币发行模型升级生效:DOT 最大供应量 21 亿枚,发行速率下调 53%

Polkadot于3月14日升级其代币发行模型,最大供应量设定为21亿枚,约80%已发行。发行速率下调53%,以保持网络激励并限制长期发行规模,增强市场透明度。

GateNewshace1h

Eigen 基金会任命 Ajit Tripathi 为执行董事

Gate News 消息,3 月 14 日,Eigen 基金会宣布任命 Ajit Tripathi 为执行董事。原执行董事 Robert Drost 将转任高级顾问。Ajit Tripathi 此前曾在 Polygon Labs、Aave 及某 CEX 担任要职。

GateNewshace1h

AI Agent 虚拟 Visa 卡平台 AgentCard 正式上线

AgentCard 平台于 3 月 14 日正式上线,支持 AI Agent 通过虚拟 Visa 卡进行多项支付和交易,未来将增加加密功能,合作伙伴包括 Base、Polygon 等。

GateNewshace1h

POAP 平台 3 月 16 日起转入维护模式,停止新发行者接入

POAP团队宣布将于3月16日起进入维护模式,限制新发行者访问,现有工具不受影响。未来将开发新标准,可能整合POAP。

GateNewshace1h

Swissborg Secures MiCA License From France’s AMF, Expanding Regulated Crypto Services Across EU

Europe’s Markets in Crypto-Assets regulation is rapidly reshaping the region’s crypto industry, with Swissborg obtaining regulatory approval in France that allows the platform to expand digital asset services across the European Union. Swissborg Secures MiCA Approval From French AMF, Expanding

Coinpediahace2h

Crypto DAO 完成国库合约开源与多签治理部署

Crypto DAO于3月14日宣布其核心国库合约已完成代码开源,并实现多签治理部署。国库合约管理储备资产和PRO代币铸造,代码开源可验证合约逻辑。多签架构让控制权分散,需社区共同授权关键操作。

GateNewshace2h
Comentar
0/400
Sin comentarios