AAAI 2026|港科大等提出ReconVLA:利用视觉重构引导,刷新机器人操作精度!(含代码)

点击原文链接,查看AAAI 2026论文合集

一、导读

近年来,视觉-语言-动作模型(Vision-Language-Action,VLA)在机器人控制中展现出融合多模态理解与动作执行的能力。

然而,现有模型在感知图像时视觉注意力(visual attention)往往分散,难以聚焦于需要操作的目标物体,导致执行动作不准确。

为此,本文提出了一种重构式视觉-语言-动作模型 ReconVLA ,通过引入一个隐式 grounding 机制,让模型在训练过程中学习重建图像中与任务相关的"凝视区域(gaze region)",从而引导其更准确地关注目标物体。

该方法在模拟和真实机器人任务中均表现出更精准的操作能力和良好的泛化性能。

二、论文基本信息

  • 论文标题:ReconVLA: Reconstructive Vision-Language-Action Model as Effective Robot Perceiver

  • 作者与单位:Wenxuan Song 等,来自香港科技大学(广州)、西湖大学、浙江大学、莫纳什大学等机构

  • 来源:AAAI 2026

  • 代码链接:https://github.com/OpenHelix-Team/ReconVLA

三、主要贡献与创新

  1. 提出 ReconVLA ,一种基于隐式视觉 grounding 的 VLA 模型,通过重建凝视区域提升视觉注意力精度。

  2. 构建大规模机器人预训练数据集,包含 100k 轨迹、200 万样本,增强模型泛化能力。

  3. 设计视觉重构模块,使用扩散变换器(diffusion transformer)从噪声中重建目标区域。

  4. 在模拟与真实任务中验证了模型在长时序任务未见目标上的优越性能。

四、研究方法与原理

ReconVLA 的核心思路是:通过让模型重建任务相关的图像区域,引导其自动聚焦于关键目标,从而提升动作执行的精确性

模型包含动作生成视觉重构 两个部分。输入为多视角图像和语言指令。视觉编码器提取图像特征,与大语言模型(LLM)交互后,一方面输出动作指令,另一方面输出重构 token(reconstructive tokens) ,用于引导一个扩散去噪过程(denoising process),重建目标区域的图像 token。

具体地,重构目标为**凝视区域 **,其 token 表示为 ,其中 是视觉 tokenizer(采用 VAE)。扩散过程从带噪声的 token 出发,在重构 token 的条件下,通过去噪器 预测噪声并恢复 。重构损失函数为:

整体训练目标为动作预测损失与视觉重构损失的加权和:

其中 是由大语言模型基于视觉 tokens 生成的重构 tokens, 是扩散时间步, 是加入的噪声。这一设计迫使模型在生成动作的同时,必须学习对目标区域的精细视觉表征,从而实现隐式的视觉注意力聚焦

五、实验设计与结果分析

模拟环境与数据集

实验使用 CALVIN 基准 ,包含 34 个任务和 4 种环境,评估模型在长时序任务 中的表现。指标为子任务成功率平均完成长度

范式对比实验

比较三种视觉 grounding 范式:

  • 显式 grounding(EG):使用 YOLOv11 检测并裁剪目标区域作为额外输入。

  • 链式思维 grounding(CG):模型依次输出边界框坐标与动作。

  • 隐式 grounding(IG,即 ReconVLA):不显式输出坐标,而是通过重建目标区域隐式学习注意力。

结果显示,IG 在各项任务中均取得最高成功率,尤其在 5/5 任务中达到 **64.1%**,显著优于 EG(50.2%)和 CG(0%)。

注意力可视化分析

可视化显示,基线模型的注意力分散,而 ReconVLA 能精准聚焦于目标物体,如"将西瓜放入黄碗"任务中,注意力集中在西瓜上。

消融实验

消融实验验证了以下设计:

  • 预训练:显著提升模型在未见环境中的泛化能力。

  • 重建凝视区域:比重建整图更有效,引导模型关注目标。

  • 重构模块本身:即使重建整图也能提升性能,但不如凝视区域精准。

与先进方法对比

在 ABC→D 和 ABCD→D 任务中,ReconVLA 在多项指标上超越生成式方法(如 GR-1、3D-VLA)和大规模 VLA 模型(如 OpenVLA、UniVLA),尤其在长时序任务中表现突出。

真实世界实验

在四个真实任务(如叠碗、翻杯等)中,ReconVLA 在未见目标上仍保持高成功率,显著优于 OpenVLA 和 PD-VLA。

六、论文结论与评价

总结

ReconVLA 通过隐式视觉 grounding 机制,成功引导模型聚焦于任务关键区域,提升了机器人操作的精确性与泛化能力。在模拟与真实任务中均表现出色,尤其在长时序和未见目标任务中优势明显。

评价

该方法无需依赖外部检测模型 ,简化了系统结构,且通过视觉重构任务 增强了模型对细节的感知能力。然而,该方法依赖于高质量凝视区域标注 ,且扩散去噪过程计算开销较大,可能限制其在实时系统中的部署。未来可探索更轻量的重构机制,或结合自监督方式减少对标注数据的依赖。

点击原文链接,查看AAAI 2026论文合集

相关推荐
广州赛远17 小时前
IRB2400-16冲压机器人防护服清理污渍_避免误区与正确方法
机器人
金融RPA机器人丨实在智能19 小时前
2026动态规划新风向:实在智能Agent如何以自适应逻辑重构企业效率?
算法·ai·重构·动态规划
qidun21019 小时前
橙色机器人防护服防护作用有哪些-全面解析工业机器人防护服的核心价值
机器人
xsc-xyc19 小时前
RuntimeError: Dataset ‘/data.yaml‘ error ❌ ‘_lz
人工智能·深度学习·yolo·计算机视觉·视觉检测
犀思云20 小时前
企业总部网络全球化扩张:利用FusionWAN NaaS 破解“网络成本瓶颈”
网络·人工智能·机器人·智能仓储·专线
m0_6501082420 小时前
IntNet:面向协同自动驾驶的通信驱动多智能体强化学习框架
论文阅读·marl·多智能体系统·网联自动驾驶·意图共享·自适应通讯·端到端协同
星爷AG I21 小时前
9-28 视觉工作记忆(AGI基础理论)
人工智能·计算机视觉·agi
橙露1 天前
视觉检测中的数字光纤放大器的核心参数和调整
人工智能·计算机视觉·视觉检测
CelestialYuxin1 天前
【微论文】机器人第一性原理:技术演进的本构逻辑与实现路径
深度学习·机器人·硬件架构
Deepoch1 天前
自然交互+精准感知!Deepoc具身模型开发板让清洁机器人告别“盲扫”
人工智能·科技·机器人·半导体·清洁机器人·具身模型·deepoc