具身智能论文问答(三):Open VLA

第一层:核心直觉 (TL;DR - 宏观视角)

核心痛点: 尽管像 RT-2 这样的视觉-语言-动作模型(VLA)展现出了惊人的泛化能力,但它们大多是闭源的,普通研究者难以访问 。同时,以前的开源通才策略(如 Octo)往往需要从头拼凑不同的网络模块,缺乏端到端的高效微调最佳实践 。

核心 Idea: 作者提出了 OpenVLA,一个拥有 7B(70亿)参数的开源 VLA 模型 。它的核心思路是:拿一个已经用海量互联网数据训练好的视觉-语言大模型(VLM,具体是 Prismatic-7B),将其直接放在包含了 97 万条真实机器人轨迹的庞大数据集(Open X-Embodiment)上进行微调,让它学会输出机器人的控制指令 。

直观比喻: 想象你要教一个人开车。传统机器人学习就像是教一个刚出生的婴儿,他连红绿灯和汽车长什么样都不知道,得从零教起。而 OpenVLA 的思路是找一个"已经读完大英百科全书的成年人"(预训练的视觉语言模型,拥有常识和视觉理解能力),然后直接给他看 97 万集"第一人称开车视频"(机器人轨迹),他就能迅速且稳健地学会开车,甚至能应对从没见过的奇葩路况(泛化能力)。


第二层:技术框架 (High-Level - 系统架构视角)

  • 整体架构 (Pipeline): 视觉编码器 (Vision Encoder): 将输入的图像转化为特征向量 。

  • MLP 投影层 (Projector): 将视觉特征映射到语言大模型的输入空间中 。

  • 大语言模型骨干 (LLM Backbone): 使用 Llama 2 7B,将视觉特征和文本指令结合,以自回归(Next-token prediction)的方式预测机器人的动作

  • 系统的输入与输出:

  • 输入: 一张单视角的 RGB 图像(环境观察)+ 自然语言指令(例如:"Put eggplant in bowl") 。

    输出: 7 维的连续机器人动作(X, Y, Z 上的位移,三个旋转角度 \\Delta \\theta,以及夹爪的开合程度 \\Delta Grip) 。这些连续动作会被转化为离散的文本 Token 输出 。

  • 与 Baseline 的核心差异:

    • 与闭源的 RT-2-X 相比,OpenVLA 参数量小了一个数量级(7B vs 55B),但在多个通用操作任务上绝对成功率高出了 16.5% 。

    • 与开源的 Octo 相比,Octo 倾向于从头训练并"缝合"预训练组件,而 OpenVLA 采用端到端的微调策略,把动作直接当做语言词表里的 Token 来预测,架构更简单且扩展性更强 。

    • 采用了融合的视觉编码器(SigLIP + DINOv2),相比单一编码器(如 CLIP),能同时捕获高级语义和低级空间特征 。


第三层:硬核细节 (Deep Dive - 研究与复现视角)

  • 核心算法与机制设计:

  • 动作离散化 (Action Tokenization): 连续动作必须变成大模型能懂的离散 Token。作者将每个动作维度划分为 256 个 bin 。巧妙的是,他们没有使用简单的最大最小值,而是使用训练数据中 1\^{st}99\^{th} 分位数来确定边界,这样可以有效忽略异常值(Outliers)对分辨率的破坏 。

  • 词表替换: Llama 2 预留的特殊 Token 不够用,作者直接暴力但有效地覆盖了 Llama 词汇表中最不常用的后 256 个 Token 作为动作 Token 。

  • 损失函数: 使用标准的交叉熵损失进行下一个 Token 预测,并且仅计算动作 Token 的损失

  • 实验设置与核心 Metrics:

    • 训练数据基于 Open X-Embodiment 数据集经过严格清洗的 970k 条轨迹 。

      测试评估在 BridgeData V2、Google 移动机器人以及多个 Franka 机械臂环境中进行 。

    • Metrics: 核心指标是不同泛化轴(视觉、运动、物理、语义泛化)上的绝对任务成功率

  • 消融实验 (Ablation Study) 的关键结论:

  • 最重要提升:OpenX 大规模数据预训练。 剥离 OpenX 数据,仅在目标数据集微调,会导致性能暴跌 30% 。

  • 视觉编码器必须解冻微调。 以前 VLM 领域的共识是冻结视觉塔效果好,但在机器人控制中,作者发现如果不解冻并微调视觉编码器,模型对细粒度空间细节的掌控力极差,性能会大幅下降 。

  • 融合视觉编码器的红利。 移除 DINOv2 仅使用 SigLIP,会导致 5% 的性能下降,证明空间特征(DINOv2)对控制有增益 。

    低秩微调 (LoRA): 仅训练 1.4% 的参数(r=32)就能达到全参微调的性能,彻底打通了消费级显卡(单张 A100)几小时内完成新任务适配的路径 。


第四层:批判与拓展 (Reviewer 视角)

  • 当前方法的局限性:

  • 观测模态单一: 目前 OpenVLA 仅支持单图像输入,缺乏对多相机视角(Multi-camera)和本体感觉(Proprioception,如关节角度)历史数据的支持 。

  • 推理速度与控制频率瓶颈: 在未经量化加速的情况下,RTX 4090 上的推理速度仅为 6Hz 。对于需要 50Hz 控制频率的高动态或高灵巧任务(如 ALOHA 系统的双臂操作),目前的速度远远不够 。

  • 缺乏时间平滑性: OpenVLA 是一个单步动作预测模型,没有引入扩散策略(Diffusion Policy)中的动作分块(Action Chunking)技术,这导致在需要高精度和时间一致性的灵巧操作上表现不如从头训练的扩散模型 。

  • 下一步突破口 (Future Work):

  • 多模态时间序列融合: 引入交错的图文预训练 VLM,使其原生支持多帧图像历史和本体状态输入,以解决部分遮挡和复杂状态估计问题 。

  • 推理加速与动作分块的结合: 利用投机解码(Speculative Decoding)或结合 Action Chunking 机制,让大模型一次吐出未来的一系列轨迹点(而不是单个点),以此跨越低频控制带来的物理限制,进军双臂精细操作领域 。

  • 数据协同训练 (Co-training): 探究如果在微调机器人动作的同时,保持一定比例的互联网图文数据训练,是否能进一步减少"灾难性遗忘",提升语义泛化能力 。

Level 1: 基础概念与直觉 (Foundation & Intuition)

  1. 核心定位: 与之前像 RT-2 这样的闭源庞然大物,或者 Octo 这样依赖模块拼接的开源基线相比,OpenVLA 最大的架构差异和核心开源贡献是什么 ?

  2. 输入与输出映射: 作为一个纯粹的自回归语言模型,OpenVLA 具体是如何将机器人连续的 7 维空间动作(末端执行器的 XYZ 位移、旋转和夹爪开合)转化为模型可以预测的"语言"的 ?

Level 2: 架构与技术细节 (Architecture & Technical Details)

  1. 视觉特征的互补: 为什么 OpenVLA 的视觉编码器没有选择单一的 CLIP 或 SigLIP,而是选择了融合 SigLIP 和 DINOv2?这两种特征分别在机器人操作中起到了什么互补作用 ?

  2. 冻结与微调的反常识: 在训练传统的视觉语言大模型(VLM)时,主流做法通常是冻结(Freeze)视觉编码器以保留预训练的通用特征。为什么在 OpenVLA 中,作者发现"解冻并全参微调"视觉塔反而是极其关键的 ?

  3. 动作分词的鲁棒性: 在把连续动作离散化为 256 个 bin 时,作者为什么选择基于数据分位数(1st 到 99th quantile)而不是直接使用简单的最小-最大边界(min-max bounds) ?

Level 3: 实验现象与微调范式 (Experiments & Fine-tuning)

  1. 海量数据的本质: 消融实验表明,如果剥离 Open X-Embodiment 数据集,仅仅在目标机械臂的子数据集上微调,模型的成功率会暴跌 30% 。你认为这种基于多具身数据的预训练,到底为模型注入了什么层面的能力(是视觉鲁棒性、还是语义对齐) ?

  2. 平民化的适配策略: 对于资源有限的个人开发者或实验室,论文推荐了哪一种参数高效微调(PEFT)策略,使得模型可以在单张消费级显卡上快速适配新任务,且几乎不损失全参微调的性能 ?

Level 4: 领域前沿与架构拓展 (Frontier & Architectural Extension)

  1. 融入 3D 空间感知(拓展题): 目前 OpenVLA 仅依赖单视角的 RGB 图像输入 。如果我们希望在输入侧引入深度图(Depth map)或点云(Point clouds)来增强三维空间感知,你认为在现有的 Prismatic 骨干网络结构中,应该如何设计特征对齐和融合的切入点?

  2. 结合层次化控制(拓展题): OpenVLA 目前是直接输出单步底层动作的"端到端"模型。如果我们采用"大小脑(Big Brain / Small Brain)"的分层控制架构------让 OpenVLA 作为大脑袋负责任务拆解和语义子目标规划,让 Diffusion Policy 作为小脑负责高频、灵巧的底层动作生成。这种架构能解决目前 OpenVLA 的哪些固有痛点 ?

  3. 部署与动态延迟(拓展题): 论文提到在 8-bit 量化推理时,由于算力导致的推理延迟降低了控制频率,直接改变了系统的物理动力学特征,导致任务成功率骤降 。在准备未来的实机演示或实习汇报时,除了硬件升级,你会考虑在算法侧采用哪些技术手段(比如 Action Chunking 或 Speculative Decoding)来弥合大模型延迟带来的控制鸿沟 ?

Level 1: 基础概念与直觉

    1. 核心定位: OpenVLA 的核心贡献在于它是一个完全开源的高性能模型,打破了 RT-2 等商业模型在权重和训练细节上的封闭性 。与 Octo 这种从头训练并拼凑各个预训练组件(视觉、语言分立)的做法不同,OpenVLA 采用了端到端(End-to-End)的直觉范式:它直接将预训练的视觉-语言大模型(Prismatic-7B)作为骨干,把机器人动作当成一种外语,通过语言模型的自回归机制进行微调预测 。
    1. 输入与输出映射: 模型将 7 维连续动作(如 X, Y, Z 坐标、旋转角和夹爪状态)的每个维度独立离散化为 256 个 bin 。为了不增加 Llama Tokenizer 的词表大小从而导致底层 embedding 维度变动,作者极其直接地用这 256 个动作 Token 覆盖了词汇表中最不常用的后 256 个特殊 Token 。随后,模型像预测下一个单词一样,通过标准的交叉熵损失(仅计算动作 Token 的损失)来预测动作序列 。

Level 2: 架构与技术细节

    1. 视觉特征的互补: SigLIP 擅长全局语义理解(比如"这是一个红色的苹果"),但缺乏精确的物理坐标感;而 DINOv2 是在自监督下训练的,能够提取非常细粒度、低级别的空间和几何边界信息 。两者的特征在通道维度拼接后,使得模型在面对需要高精度对齐和避障的复杂物理操作时,拥有了显著增强的空间推理能力 。
    1. 冻结与微调的反常识: 在传统的 VLM 任务(如视觉问答)中,冻结视觉塔能更好地保留互联网规模预训练的常识 。但机器人控制是一个高频的物理交互过程,原生的互联网图像特征缺乏极其微小的空间位移感知能力 。解冻并进行全参微调,能让视觉编码器直接适应真实的物理操作几何场,避免机器人在执行中出现迷之抖动或不稳定行为 。
    1. 动作分词的鲁棒性: 使用 1% 到 99% 的分位数进行离散化,是为了过滤掉训练数据中极少数异常的超大动作值(Outliers) 。如果直接使用 min-max bounds,这几个极端值会把动作区间的上限和下限拉得极大,导致划分出的 256 个 bin 的实际物理粒度(分辨率)变得非常粗糙,从而严重降低控制精度 。

Level 3: 实验现象与微调范式

    1. 海量数据的本质: 剥离 Open X-Embodiment 数据集会导致性能暴跌 30%,这主要损失了模型跨场景、跨物体的视觉鲁棒性与语义泛化能力 。实验表明,如果仅在目标数据上微调,模型其实能完成简单的单一指令,但在面临多指令干扰、从未见过的桌面背景或新物体(Semantic Generalization)时,OpenX 数据集注入的"见多识广"的先验底座是决定成败的关键 。
    1. 平民化的适配策略: 对于资源有限的团队,论文首推使用 LoRA(低秩微调,Rank=32) 策略 。该策略只需要更新模型 1.4% 的参数,就能完全媲美全参微调的成功率,并且在单张 A100 显卡上仅耗时 10-15 小时即可完成对新任务的适配 。

Level 4: 领域前沿与架构拓展

  • 8. 融入 3D 空间感知(拓展): 如果要将点云或深度图融入 Prismatic 骨干网络,一种优雅的思路是采用"补丁即 Token (Patch-as-token)"的思想。现有的 DINOv2 已经能处理 2D 空间特征,我们可以通过 PointNet 或 PointMAE 提取三维点云的局部几何特征,将其投影到与 2D Tokens 相同的维度作为独立的 3D Tokens。在进入大语言模型前,将 RGB 提取的 2D 语义 Tokens 与三维几何 Tokens 在序列层面进行级联(Concatenation)。这样既不需要大幅修改原有的注意力机制,又能为 VLM 补足纯视觉极度缺乏的绝对深度感知。

    1. 结合层次化控制(拓展): 采用 "Big Brain / Small Brain" 分层架构,正好能弥补 OpenVLA 目前输出单步底层动作的局限性。受限于 7B 的庞大体量,OpenVLA 难以达到 50Hz 等高频控制要求,且由于未引入动作分块(Action Chunking),精细操作不够平滑 。我们可以让 OpenVLA 作为"大模型"负责复杂语义推理、场景常识理解和长期任务分解,将其输出的子目标坐标(或中间层 Embedding)作为 Condition 喂给底层的 Diffusion Policy(或类似 \\pi_0 这样的小模型)。这样由"小脑"负责高频、灵巧的局部轨迹生成,既保住了 VLA 强大的零样本泛化,又打通了工业级的高频闭环。
    1. 部署与动态延迟(拓展): 延迟带来的控制频率下降会直接改变系统原有的动力学特性,这是导致 8-bit 量化任务成功率骤降的核心原因 。在六月份推进实机部署或向导师做技术方案汇报时,除了采用 4-bit 量化(实测能跑 3Hz 且显存减半 ),算法层面的终极解法是引入 Action Chunking。让 VLA 一次自回归吐出未来 T 个时间步的动作序列,在下一次极耗时的推理完成前,开环执行这几步动作 。此外,利用投机解码(Speculative Decoding)让一个小模型去猜测下一个 Token,大模型只做并行验证,也是目前在不牺牲精度的前提下加速 VLA 部署的最优工程路径之一 。
相关推荐
架构源启1 小时前
OpenClaw 只能手动写脚本?我用 Chrome 插件实现了“录制即生成“
前端·人工智能·chrome·自动化
霍格沃兹测试学院-小舟畅学1 小时前
多模态AI(图像+文本)该怎么测试?不是把图片丢给模型这么简单
人工智能
大山同学1 小时前
claudecode精炼版-CoreCoder
数据库·人工智能·claude code·corecoder
hughnz1 小时前
建井数字化
人工智能
极智视界1 小时前
分类数据集 - 蘑菇分类数据集下载
人工智能·yolo·数据集·图像分类·算法训练·蘑菇分类
爱学习的张大1 小时前
具身智能论文精读(四):Diffusion Policy
人工智能
wearegogog1231 小时前
基于Q-learning的栅格地图路径规划MATLAB仿真程序
开发语言·算法·matlab
让我上个超影吧1 小时前
从Prompt工程到Harness工程:AI Agent落地的下一代软件工程范式
大数据·人工智能
旖-旎1 小时前
深搜练习(组合总和)(7)
c++·算法·深度优先·力扣