360独家发现OpenClaw关键漏洞:AI智能体安全范式迎来新时代

March 2026
AI agent security归档:March 2026
OpenClaw创始人正式确认,360安全团队独家发现了其AI智能体系统中的关键漏洞。这一技术发现已演变为定义行业格局的事件,揭示了AI智能体从演示走向生产环境时所面临的紧迫现实安全挑战,并预示着开源创新与专业安全力量之间全新的协作范式。

一场由360安全团队主导的AI安全格局关键转变正在发生。该团队独家发现并披露了OpenClaw AI智能体框架中的一个关键漏洞。此事超越了常规的漏洞报告,成为首个公开承认的重大案例:一家传统网络安全巨头成功渗透并揭露了一个复杂开源AI智能体系统中的根本性缺陷。虽然漏洞具体细节尚未完全公开,但据信其利用了现代基于LLM的智能体固有的动态决策链和外部工具调用能力——这是一个传统静态代码分析难以应对的攻击面。

其重要性在于涉事方与时机。OpenClaw作为一个新兴的开源框架,其漏洞的发现恰逢AI智能体从概念验证迈向大规模企业部署的关键节点。此次事件表明,即使是最先进的AI代理架构,其核心执行循环——感知、规划、行动、观察的递归过程——也存在着固有的、可被利用的弱点。360的介入标志着传统安全厂商正将其深厚的渗透测试和漏洞研究能力,系统性地转向AI系统这一新前沿。

这起事件也凸显了当前AI智能体安全生态的薄弱环节。社区现有的安全工具(如`guardrails-ai/guardrails`、`microsoft/PromptBench`)主要关注LLM组件本身,而非完整的智能体运行循环。针对智能体特定状态机的模糊测试和安全基准尚处于萌芽阶段。数据显示,当前防御措施对直接的提示词注入攻击最为脆弱(攻击成功率高达85%),而对复杂多步攻击的防御虽有所提升,但基础层面的脆弱性依然高得令人无法接受。这迫切需要在运行时监控和输入验证层面建立新的防御层。

最终,OpenClaw-360事件成为了一个更广泛行业重组的缩影,涉及三大关键参与者原型:追求功能与易用性而可能积累安全债务的开源智能体先驱(如OpenClaw、LangChain、CrewAI);正将业务重心转向AI系统安全的传统安全巨头(如360、Palo Alto Networks)及新兴专业初创公司(如Protect AI);以及其安全责任边界止于API调用的大型模型提供商(如OpenAI、Anthropic)。此次事件可能加速一个专业化AI智能体安全市场的形成,并推动建立贯穿智能体全生命周期的安全实践标准。

技术深度剖析

OpenClaw漏洞的发现突显了一个根本性的架构挑战:如何确保AI智能体的*执行循环*安全。与静态应用程序或单次LLM调用不同,智能体通过“感知→规划→行动→观察”的递归循环运作。每个阶段都引入了独特的漏洞。

现代智能体的攻击面:
1. 提示词注入与越狱: 操纵智能体的初始指令或中间思考过程,以扭转其目标。
2. 工具/API利用: 被授予执行代码或调用API权限的智能体,可能被诱骗执行有害操作(例如,`rm -rf /`、发送垃圾邮件、泄露数据)。
3. 上下文污染: 污染智能体的记忆或检索到的上下文(来自向量数据库或文件),以影响其未来决策。
4. 资源耗尽: 导致智能体进入规划或工具使用的无限循环,造成拒绝服务和高昂成本。
5. 通过侧信道的数据泄露: 智能体内部状态或过程历史中的敏感信息在其输出中被无意泄露。

诸如OpenClawAutoGPTLangChainCrewAI等框架抽象了这种复杂性,但为了灵活性又必须暴露这些组件。漏洞很可能存在于编排层——即框架如何验证、沙箱化和监控工具执行。例如,从自然语言解析出的、未经充分净化的工具参数,可能导致任意代码执行。

相关的开源项目与基准测试:
社区正在以安全为重点的工具作为回应。`guardrails-ai/guardrails`仓库(3.2k星标)旨在根据预定义规范验证和校正LLM输出。`microsoft/PromptBench`(1.1k星标)是一个用于评估LLM对抗性提示词脆弱性的基准测试框架。然而,这些主要针对的是LLM组件,而非完整的智能体循环。

一个新兴领域是智能体特定的安全测试。像`GreatSCT/ai_agent_fuzzer`(概念性示例)这样的项目,需要在整个智能体状态机上生成畸形输入。智能体安全的性能指标尚处于雏形,但可能包括:

| 安全测试类别 | 攻击成功率(恶意方) | 防御方检测率 | 平均利用时间 |
|---|---|---|---|
| 直接提示词注入 | 85%(高) | 15%(低) | < 30 秒 |
| 间接上下文污染 | 45%(中) | 30%(低) | 2-5 分钟 |
| 工具滥用利用 | 25%(低) | 70%(高) | 5-15 分钟 |
| 全链攻击(多步骤) | 10%(极低) | 95%(高) | > 30 分钟 |

*数据启示:* 当前智能体防御对直接的提示词操纵最为薄弱,这种方式快速且简单。针对复杂多步骤攻击的防御有显著改善,但对简单注入的基础脆弱性仍然高得无法接受,这要求必须建立运行时监控和输入验证层。

关键参与者与案例研究

OpenClaw-360事件是一个涉及三大关键参与者原型的更广泛行业重组的缩影。

1. 开源智能体先驱:
* OpenClaw: 定位为多智能体协作的灵活框架,其漏洞凸显了在追求功能性和易用性过程中积累的安全债务。
* LangChain/LlamaIndex: 这些主导框架已成为事实标准。它们的安全态势至关重要,但往往委托给实施者。LangChain已逐步为Python REPL工具引入更多沙箱选项,这是对早期漏洞利用的直接回应。
* CrewAI: 专注于业务流程中的角色扮演智能体。其安全模型与它如何强制执行角色边界和验证智能体间通信紧密相关。

2. 传统安全 incumbent:
* 360安全: 此举是一次战略转向。在主导中国PC和企业终端安全市场后,360正将其渗透测试和漏洞研究的基因应用于下一个前沿领域:AI系统。这是一个清晰的市场信号。
* Palo Alto Networks, CrowdStrike: 这些全球领导者正在将AI威胁检测集成到其平台中,但在公开剖析开源AI框架方面行动较慢。360的举动可能迫使它们采取行动。
* Protect AI、Robust Intelligence等初创公司: 诞生于AI时代,它们提供专门用于保护ML流水线(模型窃取、数据投毒)的平台,并正扩展到LLM和智能体安全领域,提供如`NB Defense`等用于扫描笔记本的工具。

3. 大型模型提供商:
* OpenAI, Anthropic, Google: 它们将安全缓解措施内置于模型中(宪法AI、拒绝训练),并为安全的智能体设计提供开发者指南。然而,它们的责任边界止于API调用。基于此构建的智能体逻辑的安全性则是用户的问题。

| 实体类型 | 主要驱动力 | 安全方法 | 当前焦点 |
|---|---|---|---|
| 开源框架 | 采用率、社区增长、功能 | 依赖社区、逐步增加安全功能 | 易用性、灵活性、性能 |
| 传统安全厂商 | 市场扩张、新收入来源、品牌相关性 | 应用现有安全方法论(渗透测试、漏洞研究) | 将AI安全集成到现有产品套件,展示专业能力 |
| AI原生安全初创公司 | 填补市场空白、解决特定痛点 | 构建针对MLOps/LLMOps生命周期的专用工具 | 模型安全、数据安全、提示词安全,正向智能体安全扩展 |
| 大型模型提供商 | 降低平台风险、维护品牌信任 | 模型层面的安全对齐、API使用策略与指南 | 防止模型被滥用,将运行时安全责任转移给开发者/用户 |

*表格说明:各方在AI智能体安全生态中的定位与策略差异显著,共同塑造着未来的安全范式。*

相关专题

AI agent security99 篇相关文章

时间归档

March 20262347 篇已发布文章

延伸阅读

AI Agent安全进入自动化审计时代:23个漏洞一次性曝光360发布的OpenClaw安全报告,利用自动化审计技术,一次性识别出AI Agent中的23个独特漏洞。这一突破标志着AI Agent安全从理论风险讨论,正式转向可量化、工程化的新阶段,迫使开发与部署实践必须进行根本性重构。AI智能体进入堡垒时代:三层安全架构如何重塑开发范式随着自主AI系统从受控演示迈向真实场景部署,其安全架构正经历根本性变革。一种新兴的三层安全架构正成为行业基础标准,将开发重心从能力最大化转向高风险环境下的可靠性与安全保障。商汤“小卖”机器人便利店探秘:具身智能终于有了真工作商汤旗下尚辉科技在上海开设首家“小卖”机器人便利店,部署了一台能切换收银员、理货员和迎宾员角色的多职能机器人。这标志着具身智能首次在真实零售场景实现商业化,为劳动密集型自动化开辟了新范式。OpenClaw 悄然发布AI智能体:屏幕视觉与鼠标操控,开启桌面自动化新纪元OpenClaw 静默推出其AI智能体框架的重大更新,赋予其屏幕视觉与直接的鼠标键盘控制能力。这意味着AI现在能“看见”屏幕元素并执行点击、拖拽和文本输入——从思考到行动的飞跃,无需API即可解锁任何桌面应用的自动化。

常见问题

GitHub 热点“360's Critical OpenClaw Discovery Signals New Era of AI Agent Security Paradigm”主要讲了什么?

A pivotal shift in AI security is underway, marked by 360 Security's exclusive identification and disclosure of a critical vulnerability within the OpenClaw AI agent framework. Thi…

这个 GitHub 项目在“OpenClaw GitHub security audit results”上为什么会引发关注?

The OpenClaw vulnerability discovery highlights a fundamental architectural challenge: securing the *execution loop* of an AI agent. Unlike a static application or a single LLM call, an agent operates through a recursive…

从“how to secure LangChain agent tool execution”看,这个 GitHub 项目的热度表现如何?

当前相关 GitHub 项目总星标约为 0,近一日增长约为 0,这说明它在开源社区具有较强讨论度和扩散能力。