腿足机器人之十一- 深度强化学习

腿足机器人之十一- 深度强化学习

深度学习技术已经在语音、图像、视频、文本等领域应用广泛,其和强化学习的结合使得基于深度学习的大模型能力更是上升一个台阶。因而用在腿足机器人的运动中枢上也不足为奇,但是和电子化格式的语音、图像、文本而言,机器人的运动姿态涉及到真实的物理世界,要符合物理规律和宏观力学定律。

深度强化学习(deep Reinforcement learning, DRL)在机器人运动姿态上的控制数据是一个很大的难点,强化学习采用是 trial-and-error 的方式,在现实世界中收集机器人运动数据效率低下且可能存在安全问题,如果采用的是仿真环境(如MuJoCo、Gazebo等仿真平台),但和真实世界也存在较大的差距。

尽管存在上面的难度,但是深度强化学习技术还是在无人机、汽车自动驾驶,四足机器人(如ANYbotics,Swiss-Mile)上达到了产品级的运动控制表现。

机器人能力

机器人完成任务所需的核心能力分类运动和操作这两个能力,运动是指环境中的自主运动能力,而操作是指对物体的控制能力(如抓取、旋转)。

在机器人领域移动性进一步拆解为运动(Locomotion)和导航(Navigation),locomotion是指底层运动技能,如不同形态机器人(四足 / 轮式 / 无人机等)在特定环境中的基础移动能力,涉及驱动控制、运动稳定性等物理层面的实现,而导航(Navigation)是指高层路径规划,着重于环境感知、路径规划与避障策略,通常输出高层指令(如期望的质心运动状态)。

传统方法采用分层控制:导航层生成指令 → 运动层执行,而新兴研究趋势是将运动与导航的联合优化(如多模态模型),例如 MIT 的 Cheetah 机器人,其高速奔跑控制算法既包含步态生成(运动层),也整合了障碍物规避策略(导航层)。

在操作部分,我们更关注的是基座可移动的腿足机器人,区别于基座不动的工厂机械臂。

腿足机器人RL问题建模

这一建模过程可以参考图1中b子图。

对于单个机器人的RL问题可以看成是部分可观测马尔可夫决策过程(POMDP,Partially Observable Markov Decision Processes),POMDP反映机器人实际场景中的感知局限(如传感器噪声、视野遮挡),而多智能体场景的去中心化POMDP(Dec-POMDP, Decentralized POMDP)进一步考虑协作 / 竞争关系。

POMDP/Dec-POMDP 模型建模:
Agent(智能体) :负责根据环境观测(Observations)选择动作(Actions)以最大化累积奖励(Reward),其本质是一个策略函数(Policy),不一定是物理实体,这里可以看成是腿足机器人的控制算法。
观测空间类型(Observation Space) :包括未经处理的传感器数据(图像 / LiDAR 点云)高维原始感知以及经过处理的抽象状态(物体坐标、关节角度等)地位状态向量。
动作空间(Action Space) :如较为高层的时序扩展的复合指令(如 "抓取物体 A 并放置到区域 B" 的宏动作),也可以是任务空间指令(如末端执行器的笛卡尔坐标移动),或者是低层级的关节或电机级控制指令(如电机扭矩指令)。
奖励函数设计(Reward Function):分为密集奖励和稀疏奖励,密集奖励是指持续提供过程反馈(如距离目标越近奖励越高),而稀疏奖励是指仅在任务完成时给予信号(如成功抓取 =+1,其他 = 0)

如果采用动作空间选择的事低层级的动作(如电机扭矩指令),则需要处理系统动力学约束,训练难度大但控制精细,如果是训练是高层级的动作,则需要依赖机器人运动学/逆运动学、动力学技能库,更适合复杂任务的长时程规划。具身智能研究多采用 "高维观测 + 低层动作" 的端到端模式,仓储机器人常使用 "低维状态 + 高层动作" 的分层强化学习架构。

对于观测空间,高维观测传感器数据常结合CNN/PointNet等特征提取网络,低维特征可直接输入多层感知网络(MLP),但依赖状态估计模块的准确性(之前博客的概率、后验、扩展卡尔曼滤波)。

对于稀疏奖励,需结合课程学习 / 示教学习缓解探索难题,而对于采用密集奖励的情况,则需设计防过拟合机制(如熵正则化),以防止局部最优的情况。

强化学习解决方案

对于上面建模好的强化学习问题,其解决方案原理如下图所示:

config是对算法(Algorithm)的配置,Algorithm指的是上面的Agent(智能体) ,EnvRunner是强化学习的环境,这可以是仿真环境也可以是真实的环境,以腿足机器人为例,这个环境通常是仿真环境(需要符合物理学定律,动力学、运动学等概念),Learner是学习器,即DRL的核心算法,loss是基于上面的奖励函数Reward 得到的和理想目标的差距度量(比如抓取物体),而optim则是根据loss来优化DRL的模型参数,以便Learner更符合设计目标。

图中还有一个episode,这是一个重要的概念,它描述了从一个初始状态开始到达一个终止状态(或达到某个特定条件)的一个完整的序列或过程。以腿足机器人抓取地上的小球为例,这涉及到机器人首先要移动到小球前面(涉及多步移动),然后是弯下身子、然后是伸手捡起球这几个阶段,而一个episode由一系列的状态(state)、动作(action)和回报(reward)组成,形成了代理(agent)在环境中的一次完整交互。实际中会让机器人多次取球(不论成功步成功),每一次都是一个episode,需要用很多的episode来训练模型,所以图中的episode是加了s的(即需要多次的完整交互)。

在腿足机器人mobility和manipulation上,仿真环境用的比较多,真实的环境硬件成本、时间、运动控制、传感器采样数据等代价比较大,通常是基于仿真环境(物理模拟器PyBullet、Isaac Gym (NVIDIA)、MuJoCo、Gazebo等),先在模拟环境中学习,然后再将学习好的plicy部署到模型上,这类做法大致可以分为三类:

  • 零样本迁移(Zero-Shot Sim-to-Real):直接在仿真中训练策略,部署到真实环境时无需微调(依赖高保真仿真)。
  • 少样本迁移(Few-Shot Sim-to-Real):少样本迁移是指仿真预训练后,通过少量真实数据微调(如域随机化)
  • 无模拟器学习(Real-World/Offline Learning):无模拟器学习(游戏场景)是指完全基于真实环境交互(在线 RL)或历史数据集(离线 RL)

对于腿足机器人控制进展情况,我将paper分为了实验室和真实环境,【欢迎到github参考

四足机器人经历了从早期研究聚焦于本体感知驱动的室内平坦地形行走、复杂地形适应技术、外感知传感器融合以及风险地形预适应等阶段,当前的行走方案是腿足机器人中较为成熟的,四足机器人行走最成熟的深度强化学习(DRL)解决方案主要采用了零次模拟到现实的转移方案(zero-shot sim-to-real transfer),尤其是采用了基于策略的无模型RL算法,例如PPO (Proximal Policy Optimization),因为PPO对超参数的鲁棒性较强。

双足机器人行走是目前研究的热点方向,当前开源的文档和paper不少,但是对复杂环境和地形的适应性没有四足机器人的好。

强化学习算法库

  1. Stable Baselines3
    特点:基于 PyTorch,实现 PPO、SAC、TD3 等主流算法,与 Gymnasium 兼容
    适用场景:快速实现 RL 算法,支持自定义环境(如 PyBullet 机器人环境)
    机器人支持:需自行集成机器人模型,常用于四足机器人策略迁移训练
  2. Ray RLlib
    特点:分布式训练框架,支持多智能体、混合动作空间,集成 DDPG、APEX 等算法
    优势:适合大规模并行训练,可与 Isaac Gym 结合加速四足机器人训练
    案例:用于 ANYmal 等四足机器人的多任务策略学习
  3. Tianshou
    特点:模块化设计,支持离线 RL、多环境并行,基于 PyTorch
    机器人应用:适用于高维动作空间(如 18 关节的足式机器人),提供策略蒸馏工具
  4. JAX-based 库(如 RLax、Brax)
    优势:利用 JAX 的自动微分与硬件加速,Brax 集成物理引擎
    性能:在 GPU/TPU 上实现毫秒级仿真步长,适合足式机器人高频控制
    案例:Brax 提供四足 Ant 环境,支持 PPO 训练实时步态生成

选择建议

快速验证算法:PyBullet + Stable Baselines3

大规模训练:Isaac Gym + RLlib

高精度动力学:MuJoCo + Tianshou

真实硬件部署:ROS2 + Sim2Real-Lib

相关推荐
LS_learner4 小时前
小智机器人CMakeLists编译文件解析
嵌入式硬件·机器人
国货崛起4 小时前
波兰发布世界首个双足肌肉骨骼机器人,细节高度模拟人类生物特征
机器人
IT观察4 小时前
优艾智合获批广东省复合协作机器人工程技术研究中心
机器人
猫头虎-人工智能9 小时前
NVIDIA A100 SXM4与NVIDIA A100 PCIe版本区别深度对比:架构、性能与场景解析
gpt·架构·机器人·aigc·文心一言·palm
Leiditech__9 小时前
人工智能时代电子机器人静电问题及电路设计防范措施
人工智能·嵌入式硬件·机器人·硬件工程
JAMES费10 小时前
figure机器人技术架构的演进初探——Helix人形机器人控制的革新
架构·机器人
【云轩】12 小时前
基于STM32与BD623x的电机控制实战——从零搭建无人机/机器人驱动系统
stm32·机器人·无人机
AWS官方合作商1 天前
Amazon Lex:AI对话引擎重构企业服务新范式
人工智能·ai·机器人·aws
风口猪炒股指标1 天前
想象一个AI保姆机器人使用场景分析
人工智能·机器人·deepseek·深度思考