CertiK 警示 AI 代理市场的安全风险,揭示安全模型中的漏洞 - U.Today

UToday
BTC0.06%
XRP0.22%
ETH-0.14%
SHIB3.17%
  • 概念验证揭示行业更广泛的风险
  • 开发者的关键建议
  • 对用户和平台的影响 CertiK的研究人员对新兴AI代理生态系统的安全性表示担忧,认为目前的市场审查系统不足以防止恶意行为。

在最近的一项研究中,团队展示了如何通过破坏OpenClaw平台上的第三方“技能”来绕过现有的安全措施,并在主机系统上执行任意命令。研究结果突显了AI代理市场在审查和部署外部代码方面的结构性弱点。

该研究重点分析了Clawhub采用的审查流程,包括静态代码分析、VirusTotal检查以及基于AI的审核工具。

热点新闻

富爸爸穷爸爸作者:比特币将突破75万美元

加密市场回顾:XRP准备涨至1.70美元,以太坊(ETH)进入牛市模式,柴犬币(SHIB)是否终于进入牛市?

根据CertiK,这些机制可以通过相对较小的代码修改被绕过。通过略微改变逻辑或重构漏洞,恶意技能在安装时可能表现得无害,但一旦部署后仍能执行有害操作。

这为用户带来了虚假的安全感,因为市场审查系统的批准并不保证技能的安全。

概念验证揭示行业更广泛的风险

该概念验证攻击强调了影响AI代理生态系统的更广泛问题:安全模型过度依赖部署前的审查,而忽视了运行时保护。

如果没有沙箱、严格的权限控制和运行时隔离等保障措施,平台实际上将过多责任推给了本不适合应对复杂、不断演变威胁的检测系统。

研究发现,随着AI代理市场的扩大,恶意或被破坏的技能进入生产环境的风险将增加。

CertiK的研究人员认为,行业必须重新思考其保护AI代理的策略,应优先考虑运行时的封装,而非仅依赖检测。

平台不应假设所有恶意代码都能在部署前被识别,而应设计成即使部分威胁绕过审查,也能在运行中进行限制。在这种模式下,重点从防止每一次入侵转向最小化单次入侵带来的潜在损害。

这标志着从“完美检测”思维向以损害控制和系统韧性为核心的转变。

开发者的关键建议

为应对这些风险,CertiK提出了多项针对构建AI代理平台的措施。

沙箱应成为第三方技能的默认执行模型,确保外部代码在隔离环境中运行,而非直接与主机系统交互。

此外,平台应实施细粒度的每技能权限框架。每个技能应明确声明所需资源,运行时在执行过程中强制执行这些权限。这种做法可以限制被破坏或恶意组件的潜在影响。

研究人员还强调,第三方技能不应继承主机系统的广泛隐性信任,因为这大大增加了被利用的风险。

对用户和平台的影响

对于用户,报告强调了一个重要限制:市场中的“良性”标签并不等同于真正的安全。它仅表示现有的审查流程未检测到威胁。

在更广泛的层面上,研究指出了AI生态系统中的结构性问题。虽然审查流程可以帮助识别明显的威胁,但不能作为执行具有提升权限的第三方代码系统的主要防御机制。

CertiK总结认为,真正的安全改进需要在AI代理平台的设计上进行转变。

开发者不应依赖日益复杂的检测系统,而应构建假设失败可能发生的环境,确保任何入侵都能被限制。这包括采用更强的隔离技术、执行严格的权限控制,以及将运行时安全作为核心保护层。

随着AI驱动的应用不断变得复杂和普及,能够在运行时控制风险的能力,可能成为保障下一代数字生态系统安全的关键因素。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论