社交机器人具身导航新范式!AutoSpatial:通过高效空间推理学习实现机器人视觉语言推理和社交导航

  • 作者:Yangzhe Kong, Daeun Song, Jing Liang, Dinesh Manocha, Ziyu Yao, and Xuesu Xiao

  • 单位:乔治梅森大学,马里兰大学

  • 论文标题:AutoSpatial: Visual-Language Reasoning for Social Robot Navigation through Efficient Spatial Reasoning Learning

  • 论文链接:https://arxiv.org/pdf/2503.07557

  • 代码链接:https://github.com/Yanko96/AutoSpatial (coming soon)

主要贡献

  • 提出了基于视觉语言模型(VLM)的方法AutoSpatial,通过结构化的空间定位和自动标注的视觉问答(VQA)对,显著提升了VLM在社会导航中的空间推理能力。

  • 引入了自动数据标注策略,结合两轮VQA结构,高效解决了特定领域数据稀缺问题,同时分层增强了空间理解能力。

  • 通过专家系统(如GPT-4o、Gemini 2.0 Flash、Claude 3.5 Sonnet)的交叉验证评分和人类评估者的相对排名,证明了AutoSpatial在感知与预测、推理、行动和解释等方面的显著优势。

研究背景

  • 社会导航是人机交互中的一个基本挑战,要求机器人不仅能够避开障碍物,还要以符合社会规范的方式进行导航。尽管传统方法和基于学习的方法已经取得了一定进展,但在动态和社交环境中仍面临关键挑战。

  • 近年来,视觉语言模型(VLM)在机器人推理方面展现出巨大潜力,但在社会导航中的应用受到限制,主要原因是缺乏空间推理能力,例如无法准确预测人类运动和人机交互,导致在动态社交环境中的决策不够理想。

  • 此外,现有的自然语言注释数据集主要关注自动驾驶等结构化驾驶场景,而涉及行人交互、复杂社交规范的图像文本数据集尚未得到充分探索,这使得VLM难以在没有大量人工监督的情况下进行有效泛化。

研究方法

结构化空间定位

  • 将空间关系分解为两个独立组件:人类的位置描述(包括角度位置和距离)以及人类运动方向的描述。

  • 通过将机器人视野划分为五个区域和五级距离分类,并采用相对坐标系统描述行人运动方向,消除了相对方向描述中的模糊性,为感知和预测提供了统一的参考框架。

数据标注

  • 自动标注的VQA对

    • 基于CODA数据集,利用规则启发式方法生成VQA对,涵盖空间感知、运动预测和交互描述三个方面。

    • 空间感知包括行人的位置和运动方向描述;运动预测分析短期轨迹,识别运动模式;交互描述则识别各种交互模式,如轨迹冲突、路径交叉等。

  • 手动标注

    • 从CODA数据集中挑选72个具有挑战性的场景进行手动标注,重点关注高行人密度环境、复杂社交分组模式以及需要从个体到群体理解的场景。

    • 手动标注遵循结构化的5项任务格式:感知、预测、推理、最终行动和解释,并提供结构化空间定位指南以减少主观性。

两轮VQA结构

  • 对于手动标注的场景,采用两轮VQA结构以实现分层学习。

  • 第一轮是自动标注的VQA,关注个体行人的空间感知、预测和推理;

  • 第二轮是手动标注,将个体描述整合为全面的场景描述,涵盖群体动态和高级空间推理。

实验

  • 实验设置
    • 基于LLaVA-1.6 OneVision-7B模型进行实验,使用4个A100 80GB GPU。

    • 采用AdamW优化器,学习率为2e-5,批大小为8,梯度累积步数为4。

    • 评估框架包括自动化指标(针对CODA数据集的基本空间推理)和人类评估(针对SNEI基准的高级场景理解)。

  • 结果

    • 在CODA基准测试中,AutoSpatial(AS-A72D1)在空间推理方面得分为0.710,显著优于仅使用手动标注的LLaVA-M(0.404)和原始LLaVA(0.376)。

    • 在专家系统评估中,AutoSpatial在感知与预测、推理、行动和解释等方面均优于基线模型,平均交叉验证分数分别提高了10.71%、16.26%、20.50%和18.73%。

    • 人类评估结果也显示,AutoSpatial在所有关键方面均优于基线模型。

    • 消融研究表明,仅使用感知与预测VQA任务的模型在该方面表现良好,但在其他方面提升有限;仅使用推理VQA任务的模型在推理、行动和解释方面有所改善,但在基本空间理解上表现不佳。这表明不同类型的VQA任务与手动标注相结合才能实现最佳性能。

    • 定性分析表明,AutoSpatial在识别关键参与者及其相对位置方面表现出色,能够提供更具体、符合社交规范的导航指令,但在理解人类微妙线索(如目光方向和身体姿态)方面仍存在不足。

结论与未来工作

  • 结论

    • AutoSpatial通过结合自动标注数据和少量手动标注,显著提升了VLM在社会导航中的空间推理能力。

    • 实验结果表明,自动标注的VQA对与手动标注相结合能够产生协同效应,即使在减少手动标注的情况下也能保持良好性能。

  • 未来工作

    • 进一步改进人类行为理解能力,特别是对微妙社交线索的识别,以更好地处理复杂场景中的人类交互。

    • 提高空间术语的一致性,确保模型在各种环境中都能准确使用标准化的空间描述。

    • 融合时间序列信息,以更好地理解人类的连续运动和意图,并在多视角下保持一致的空间推理。

相关推荐
小陈工2 小时前
Python Web开发入门(十七):Vue.js与Python后端集成——让前后端真正“握手言和“
开发语言·前端·javascript·数据库·vue.js·人工智能·python
墨染天姬6 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志6 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
YQ_016 小时前
ROS 2 / Gazebo / Autoware 一键清理与切换 Domain 使用指南
机器人
2501_948114246 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠6 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光6 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好7 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力7 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
jinanwuhuaguo7 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin