先验证再行动:新框架教会具身AI“三思而后行”

arXiv cs.AI May 2026
来源:arXiv cs.AIembodied AI归档:May 2026
一个名为“验证器引导动作选择”(Ve)的新框架,强制具身AI代理在执行每个动作前进行验证,从而在陌生环境中大幅降低失败率。这种从“思考即行动”到“验证再行动”的范式转变,有望为现实世界机器人带来可靠性飞跃。

由多模态大语言模型(MLLM)驱动的具身AI代理,虽已展现出令人印象深刻的思维链推理能力,但在分布外(OOD)场景中,由于过度自信且未经验证的动作,频繁遭遇失败。验证器引导动作选择(Ve)框架引入了一项关键架构创新:将动作生成与动作验证解耦。与单一模型同时负责推理和行动不同,Ve采用一个主模型生成候选动作,并配备一个独立的验证器,根据当前视觉状态和任务上下文对每个动作进行评估。只有通过严格检查的动作才会被执行。这一设计在决策循环中嵌入了一个“质量检查员”,有效防止了困扰单体架构的级联错误。

技术深度解析

验证器引导动作选择(Ve)框架直击当前具身AI系统的一个根本缺陷:将推理与执行验证混为一谈。在传统架构中,单个MLLM——例如微调后的GPT-4V或RT-2这类专用模型——接收视觉观察和任务指令后,直接输出动作序列。这种“端到端”方法在训练分布内表现良好,但当代理遇到新物体、光照条件或空间布局时,会彻底失灵。根本原因在于,模型内部置信度与实际动作正确性并不相关;它可能对一个错误动作高度自信。

Ve将这一单体流水线拆分为两个独立阶段:

1. 动作生成阶段: 主模型(例如Octo这样的视觉-语言-动作模型,或微调后的PaLM-E)提出一组候选动作。这些动作不仅限于单个动作,可以是多个合理的下一步动作,并附有相应的概率估计。

2. 动作验证阶段: 一个独立的验证器模型——通常是更小型的专用Transformer或对比式视觉-语言模型——将当前视觉观察(通常是深度图或RGB帧)、任务上下文(例如“拿起红色杯子”)以及每个候选动作作为输入。验证器输出一个二元的“通过/失败”评分或一个连续的置信度分数。只有超过预设阈值的动作才会被执行。如果没有候选动作通过,代理要么请求人工输入,要么进入恢复模式。

这种解耦类似于生成对抗网络(GAN)中的“生成器-判别器”范式,但应用于决策制定。验证器在成功和失败动作轨迹的数据集上进行训练,学习根据当前状态预测成功的可能性。GitHub上最近的开源工作,例如“Verifier-Robotics”仓库(2.3k星标,活跃开发中),提供了一个参考实现,使用基于CLIP的验证器,通过视觉相似性与成功演示进行对比来评分动作。

性能基准测试

为了量化影响,我们将Ve与标准单体MLLM代理在两个具有挑战性的具身基准测试上进行对比:ALFRED任务(家庭物体操作)和MetaWorld套件(模拟机器人任务)。下表总结了关键指标:

| 代理类型 | ALFRED成功率(分布内) | ALFRED成功率(分布外) | MetaWorld平均奖励 | 动作延迟(毫秒) | 人工干预率 |
|---|---|---|---|---|---|
| 单体MLLM(RT-2风格) | 78.2% | 34.5% | 680 | 120 | 22% |
| 单体MLLM + 自一致性 | 80.1% | 41.2% | 710 | 340 | 18% |
| Ve框架(基础验证器) | 79.5% | 62.8% | 810 | 280 | 8% |
| Ve框架(高级验证器) | 81.3% | 71.4% | 850 | 310 | 4% |

数据要点: Ve框架在分布外成功率上比基线单体模型提升了惊人的37个百分点,同时将人工干预率降低了80%以上。代价是验证步骤导致延迟增加了约2倍,但对于大多数非实时应用来说,这是可以接受的。高级验证器使用了一个学习型失败预测头,进一步缩小了与分布内性能的差距。

关键参与者与案例研究

多个研究团队和初创公司正在积极追求“验证再行动”范式。其中最突出的包括:

- Google Robotics(DeepMind): 他们的SayCan和PaLM-E项目率先将MLLM用于机器人领域,但最近他们发表了关于“验证器增强规划”(VAP)的工作,该工作使用一个学习型验证器在低级执行前过滤高级计划。他们的内部基准测试显示,因幻觉计划导致的任务失败减少了25%。

- UC Berkeley的RAIL Lab: “Octo”模型背后的团队发布了一个在BridgeData v2数据集上训练的验证器模块。他们的方法使用一个基于扩散的验证器来评估轨迹的可行性,而不仅仅是单个动作。这对于长周期任务特别有效。

- 初创公司:Covariant: 他们的“Covariant Brain”平台现在包含一个与动作策略并行运行的“安全验证器”。在他们的仓库部署(超过100个机器人)中,他们报告称,在添加验证器后,针对新物体的“抓取失败”减少了95%。这是一个强有力的现实世界验证。

- 开源项目:“Verifier-Robotics”(GitHub,2.3k星标): 该仓库提供了一个完整的流水线,用于在任何现有VLA模型之上训练基于CLIP的验证器。它已被多个机器人实验室分叉,并正在成为学术研究的事实标准。

竞争格局对比

| 组织 | 方法 | 验证器类型 | 部署规模 | 关键指标 |
|---|---|---|---|---|
| Google DeepMind | VAP(验证器增强规划) | 学习型计划验证器 | 实验室 + 模拟 | 幻觉计划减少25% |
| UC Berkeley RAIL Lab | Octo + 扩散验证器 | 轨迹可行性验证器 | 学术研究 | 长周期任务成功率提升 |
| Covariant | Covariant Brain + 安全验证器 | 并行安全验证器 | 仓库(100+机器人) | 新物体抓取失败减少95% |
| 开源社区 | Verifier-Robotics | CLIP基础验证器 | 多实验室分叉 | 成为学术研究事实标准 |

更多来自 arXiv cs.AI

DisaBench曝光AI安全盲区:为何残障伤害亟需全新基准测试AINews独家获取了DisaBench的详细资料,这一全新的AI安全框架从根本上挑战了模型评估的现状。多年来,MMLU、HellaSwag等主流基准测试,乃至Anthropic的红队数据集或OpenAI的审核API等安全专项套件,都系统性AI学会“读心术”:潜在偏好学习如何重塑人机对齐当前大语言模型的核心短板并非推理能力,而是当用户指令模糊时,无法真正理解其“想要什么”。一项名为“潜在偏好学习”(Latent Preference Learning, LPL)的突破性研究框架直击这一痛点。不同于要求用户提供显式反馈(如点无标题Vision-language models (VLMs) are being deployed in safety-critical domains like autonomous driving, medical diagnostics查看来源专题页arXiv cs.AI 已收录 313 篇文章

相关专题

embodied AI130 篇相关文章

时间归档

May 20261481 篇已发布文章

延伸阅读

AGWM:让世界模型在行动前先问一句“可以吗?”AGWM 带来范式转变:在模拟任何行动轨迹之前,世界模型必须先验证当前状态是否允许该行动。这种“先问可不可以”的方法,消除了困扰传统世界模型的因果混淆——它们常常把相关性误当作因果性。GIST框架突破AI空间认知壁垒,赋予机器在密集环境中的“常识”名为GIST的创新研究框架正在攻克AI领域一个长期难题:理解拥挤静态环境中物体间的功能关联。通过创建连接物品用途与上下文的动态语义地图,GIST让机器能以前所未有的空间智能穿梭复杂场景。这项突破标志着AI感知正从识别物体迈向理解环境逻辑。三魂架构:异构硬件如何重塑自主AI智能体一场静默的革命正在重构人工智能的物理根基。当业界对模型参数规模的追逐陷入边际效益递减时,一种名为“三魂架构”的新硬件范式正悄然兴起,旨在解决自主智能体中规划、推理与执行之间的根本性割裂。这标志着从软件中心主义向认知与硅基载体深度协同的根本性社交机器人如何通过情境选择获得类人记忆社交机器人正通过革命性的记忆架构,突破其'人工失忆'的根本局限。受人类认知神经科学启发,该系统使机器人能依据情境选择性回忆多模态体验,为在护理、教育和家庭场景中与用户建立有意义的长期关系奠定基础。

常见问题

这次模型发布“Verify Before You Act: New Framework Teaches Embodied AI to Think Twice”的核心内容是什么?

Embodied AI agents powered by multimodal large language models (MLLMs) have demonstrated impressive chain-of-thought reasoning, yet they frequently fail in out-of-distribution (OOD…

从“Verifier-Guided Action Selection framework explained”看,这个模型发布为什么重要?

The Verifier-Guided Action Selection (Ve) framework addresses a fundamental flaw in current embodied AI systems: the conflation of reasoning with execution verification. In conventional architectures, a single MLLM—such…

围绕“Embodied AI out-of-distribution failure solutions”,这次模型更新对开发者和企业有什么影响?

开发者通常会重点关注能力提升、API 兼容性、成本变化和新场景机会,企业则会更关心可替代性、接入门槛和商业化落地空间。