【强化学习笔记】从数学推导到电机控制:深入理解 Policy Gradient 与 Sim-to-Real。

【强化学习笔记】从数学推导到电机控制:深入理解 Policy Gradient 与 Sim-to-Real

前言

最近在研究基于 legged_gym 的四足机器人控制。在啃代码和论文的过程中,Policy Gradient(策略梯度)是一个绕不开的核心概念。

面对一堆 \(\nabla\) 和 \(\log\) 符号,我不禁思考:这些抽象的数学公式,到底是如何变成控制电机输出扭矩的指令的?

本文将从最基础的目标函数出发,推导策略梯度公式,并结合 Sim-to-Real(仿真到真机)的工程难点,记录我的理解。


1. 核心目标:我们在优化什么?

在强化学习(RL)中,我们的机器狗(Agent)拥有一个策略网络(Policy Network),参数为 \(\theta\)。我们的终极目标是找到一组参数,使得机器人在环境中的**期望回报(Expected Return)**最大化。

我们将这个目标函数记为 \(U(\theta)\):

\[U(\theta) = E_{\tau \sim P_\theta(\tau)} [R(\tau)] \]

这里的符号含义如下:

  • \(\tau\) (Trajectory) :轨迹。代表机器人从开机到结束的一连串状态 \(s\) 和动作 \(a\) 的序列。
  • \(R(\tau)\):回报。这条轨迹获得的总分数(例如:走得远+10分,摔倒-100分,电机发热-5分)。
  • \(P_\theta(\tau)\) :概率。在当前策略 \(\pi_\theta\) 下,走出这条特定轨迹的概率。

简单来说,\(U(\theta)\) 就是机器人目前的"平均考试成绩"。我们要做的,就是通过梯度上升,把这个分数提上去。


2. 数学推导:Log-Derivative Trick

为了提升 \(U(\theta)\),我们需要求它的梯度 \(\nabla_\theta U(\theta)\)。这里的核心难点在于:我们无法直接对环境(物理世界)求导 。但是,利用似然比技巧(Likelihood Ratio Trick),我们可以巧妙地绕过环境模型。

2.1 展开为积分

期望本质上是加权平均。我们将 \(U(\theta)\) 写成积分形式:

\[\nabla_\theta U(\theta) = \nabla_\theta \int P_\theta(\tau) R(\tau) d\tau \]

假设奖励函数 \(R(\tau)\) 是由环境给出的客观反馈,与 \(\theta\) 无关,我们可以把梯度算子移进去:

\[= \int \nabla_\theta P_\theta(\tau) R(\tau) d\tau \]

2.2 引入 Log 技巧

利用微积分恒等式 \((\log x)' = \frac{1}{x} \Rightarrow \nabla x = x \cdot \nabla \log x\),我们可以将 \(\nabla_\theta P_\theta(\tau)\) 替换为:

\[\nabla_\theta P_\theta(\tau) = P_\theta(\tau) \nabla_\theta \log P_\theta(\tau) \]

代回原式:

\[\nabla_\theta U(\theta) = \int \color{red}{P_\theta(\tau) \nabla_\theta \log P_\theta(\tau)} R(\tau) d\tau \]

2.3 变回期望,消掉环境

现在积分里又出现了 \(P_\theta(\tau)\),这正是期望的定义。同时,将轨迹概率 \(P_\theta(\tau)\) 展开后,所有与策略参数 \(\theta\) 无关的环境转移概率(Dynamics)在求导时都变成了 0。

最终,我们得到经典的策略梯度公式:

\[\nabla_\theta U(\theta) = E_{\tau \sim P_\theta(\tau)} \left[ \sum_{t} \nabla_\theta \log \pi_\theta(a_t|s_t) \cdot R(\tau) \right] \]

Note : 这个公式的强大之处在于 Model-Free。它不需要知道机器人腿有多重、地面摩擦系数是多少,只要能采样(Rollout),就能训练。


3. 物理直觉:梯度如何影响电机?

公式中的 \(\nabla_\theta \log \pi_\theta(a_t|s_t)\) 实际上是在调整策略网络输出分布的均值(对于高斯策略)。

我们可以将参数更新过程具象化为:

  1. 正反馈(Reward > 0)

    • 如果机器狗做了一个动作(比如前腿抬高),并且之后没有摔倒,获得了正奖励。
    • 梯度会增加该状态下输出"前腿抬高"的概率。
    • 电机层面的效果:神经网络会记住这个关节位置,下次遇到类似状态,会更倾向于输出这个位置指令。
  2. 负反馈(Reward < 0)

    • 如果机器狗因为步幅过大导致劈叉,获得了负奖励。
    • 梯度方向反转,抑制该动作的概率。
    • 电机层面的效果:神经网络会学会"收敛",减小输出幅度。

4. 工程挑战:Sim-to-Real Gap

在 Isaac Gym 仿真中,基于上述原理训练出的策略往往表现完美,但直接部署到真机(如 A1 或自定义的 8010 电机狗)上,常常会失效。

这就是著名的 Sim-to-Real Gap,主要源于以下差异:

4.1 执行器动力学(Actuator Dynamics)

这是最关键的差异。

  • Sim : 理想电机。指令 \(T_{cmd}\) 下发,实际扭矩 \(T_{out}\) 瞬间到达。
  • Real : 真实电机(如宇树 8010)是一个复杂的动力学系统,存在带宽限制、死区、摩擦。高频的剧烈抖动指令在真机上根本执行不出来,甚至会导致电机过热保护。

4.2 延迟(Latency)

  • Real : 传感器数据(IMU MINS-200)通过串口回传 \(\rightarrow\) C++解析 \(\rightarrow\) Python推理 \(\rightarrow\) 指令下发。这个闭环通常有 15ms-30ms 的延迟。
  • 如果训练时没有模拟这个延迟,策略网络在真机上就会因为"反应慢半拍"而发生振荡。

4.3 解决方案:域随机化(Domain Randomization)

既然无法精准建模真实世界,我们就让仿真环境变得足够"恶劣"。在 legged_gym 中,我们通常会开启:

  • Mass Randomization: 随机改变机身质量。
  • Friction Randomization: 地面摩擦系数在 0.5~1.5 之间跳变。
  • Push Robots: 定时给机器人施加随机外力推挤。
  • Lag Simulation: 模拟随机的控制回路延迟。

只要策略能在这个充满了随机扰动的"混沌宇宙"中存活,它在那个唯一的真实世界中大概率也能稳定行走。


5. 总结

Policy Gradient 将数学上的概率优化与物理上的电机控制连接了起来。理解了这个过程,不仅有助于调参(Reward Scaling),更能让我们在面对 Sim-to-Real 失败时,理性分析是哪一部分分布(Distribution)出了问题。

目前的计划是先在 Isaac Gym 和 MuJoCo 之间跑通 Sim-to-Sim 的验证流程,利用 MuJoCo 更精准的物理引擎来检验策略的鲁棒性,为之后的真机部署打好基础。


本文基于个人学习理解整理,欢迎指正交流。

相关推荐
中科米堆8 小时前
机器人企业采用自动化三维测量方案,完成关节部件快速检测-中科米堆CASAIM
运维·机器人·自动化·3d全尺寸检测
九鼎创展科技8 小时前
「有温度的陪伴」:基于全志 V821 的情感共鸣型实体机器人详解
linux·人工智能·嵌入式硬件·机器人
CES_Asia8 小时前
资本赋能实体智能——2026 CES Asia机器人产业投资峰会定档北京
大数据·人工智能·microsoft·机器人
Coovally AI模型快速验证9 小时前
复杂工业场景如何实现3D实例与部件一体化分割?多视角贝叶斯融合的分层图像引导框
人工智能·深度学习·计算机视觉·3d·语言模型·机器人
加点油。。。。9 小时前
【强化学习】——策略梯度方法
人工智能·机器学习·强化学习
Mryan200510 小时前
基于 NAO 机器人的智能语音交互系统的设计与实现
机器人·语音识别
云空19 小时前
《解码机器人操作系统:从核心架构到未来趋势的深度解析》
架构·机器人
云空1 天前
《当机器人有了“鸿蒙大脑”:M-Robots OS如何重构产业生态?》
重构·机器人·harmonyos
kkkkkkkkk_12011 天前
【强化学习】07周博磊强化学习纲要学习笔记——第四课上
学习·强化学习