VIMA:多模态提示的通用机器人操纵

机器人任务的表述有三种形式,分别是模仿one-shot演示、跟随语言指令、以及实现视觉目标。然而,这三种方式处理的任务不同,且模型也不同。基于提示的学习在自然语言处理领域展现了通用能力,单个模型可以处理各种各样的任务。VIMA是一个机器人领域的通用智能体,基于多模态提示学习的transformer架构。VIMA这篇论文的主要贡献有:

多模态提示范式:把机器人操纵任务转化为序列建模问题。

大规模benchmark:系统性评估智能体的扩展性和泛化性。

多模态提示机器人智能体:拥有处理多任务和零样本泛化的能力。

图1 任务说明的多模态提示

多模态提示

作者们认为各种各样的任务说明范式可以被多模态提示初始化。确切的说,多模态提示被定义为任意交叉的文本与图片的有序序列,可见图1所示。其中,元素。

主要考虑的任务有6中,分别是

简单的物品操纵

实现视觉目标

新颖概念理解

one-shot视频模仿

满足视觉约束

视觉推理

VIMA-Bench

由于只有特定任务的benchmarks,所以提出了VIMA-Bench。该Benchmark的形成是由收集对象与文本对形成提示对,从而扩展Ravens机器人仿真器得到。同时,基于特权信息获得仿真环境中专家演示数据。在仿真环境中,智能体的观测空间由前向RGB图片和自顶向下视角的图片构成;动作空间由关节位置构成;奖励函数为0-1奖励,只有完成任务才有奖励。

如图2所示,作者们设计了4级评估协议,系统探索了智能体的泛化能力。

图2 评估协议

VIMA

为了学习一个高效的多任务机器人策略,设计了一个多任务编码-解码架构和以对象为中心的智能体,可见图3所示。

图3 VIMA架构

确切的说,策略由多模态提示和历史为输入。对于多模态提示,利用预训练模型T5进行编码。对于解码,利用多模态提示编码于交互数据和观测之间的交叉注意力生成动作序列。VIMA通过从有界box坐标和裁剪RGB patches计算tokens的方式得到对象为中心的表示。

Tokenization:三种类型的数据需要tokenization,分别为文本、单个对象的图片、桌面场景图片。对于文本,利用预训练T5的tokenizer和词embedding获得词tokens。对于全景图片,首先利用微调后的Masked R-CNN抽取单个对象,然后对每个对象的有界box和裁剪图片进行编码,分别使用了有界box编码器和ViT。对于单个对象的图片,利用ViT得到编码。最后,tokens以特定准则,通过预训练T5编码器编码提示。同时,为了使模型能够容纳新的模态,在非文本tokens与T5之间增加了MLP。

相关推荐
feifeigo12312 小时前
如何使用CrowPanel ESP32-S3高级HMI显示器来创建一个语音交互聊天机器人
机器人·计算机外设
BFT白芙堂17 小时前
清华大学联合项目 论文解读 | MoTo赋能双臂机器人:实现零样本移动操作
机器学习·机器人·移动机器人·论文解读·具身智能·双臂机器人·cobotmagic
武子康20 小时前
AI-调查研究-74-具身智能 机器人学习新突破:元学习与仿真到现实迁移的挑战与机遇
人工智能·程序人生·ai·职场和发展·系统架构·机器人·具身智能
搬砖的小码农_Sky1 天前
机器人商业化落地需要突破的关键性技术
人工智能·ai·机器人
可编程芯片开发1 天前
六自由度Stewart并联机器人simulink建模与模拟仿真
机器人·simulink·stewart·并联机器人
xwz小王子1 天前
Science Robotics 封面论文:RoboBallet利用图神经网络和强化学习规划多机器人协作
人工智能·神经网络·机器人
Yvonne爱编码1 天前
从齿轮到智能:机器人如何重塑我们的世界【科普类】
机器人
Deepoch1 天前
当按摩机器人“活了”:Deepoc具身智能如何重新定义人机交互体验
人工智能·科技·机器人·人机交互·具身智能
普蓝机器人1 天前
AutoTrack-IR-DR200底盘仿真详解:为教育领域打造的高效机器人学习实验平台
人工智能·学习·计算机视觉·机器人·移动机器人·三维仿真导航
索迪迈科技1 天前
INDEMIND亮相2025科技创变者大会,以机器人空间智能技术解锁具身智能新边界
人工智能·机器人·扫地机器人·空间智能·陪伴机器人