PPO到GRPO自己话总结

==**通俗易懂的来说**==

PPO的总体流程就是用policy model(训练的模型)去生成样本组,然后计算奖励V,用v去计算advantage,然后去更新policy和value

\[Agentic RL和RLHF区别是什么?\]

他主要有四个模型

1、policy model(待训练的模型)

2、reference model (被冻结的老模型)

3、reward model 打分模型

4、value model 估分基准模型

==**advantage=reward-value,如果是多步的(即中间有reward的,即用累计的reward-value)**==

然后GRPO是对PPO的一种简化方法,他不需要value model,使用组内相对奖励代替绝对奖励,取代了V

理论上只需要 Policy Model 和 Reference Model;

那他怎么算reward,如果有真值答案,那直接真值判分

也可以用llm as judge,看具体情况

PPO的问题就是太依赖老师的value能力,这个value很有可能不准

而GRPO一次生成多条样本,只进行相对比较,用均值(或者别的)作为PPO里面的value

然后再拿reward减去group_mean_reward

GRPO 的训练循环包括以下步骤:

  1. **采样阶段**:对于每个问题,使用当前策略生成多个答案(`num_generations`个)。这些答案构成一个"组",用于计算相对奖励。

  2. **奖励计算**:对每个生成的答案计算奖励 𝑟𝑖ri​。奖励可以是准确率、长度惩罚、步骤奖励或它们的组合。

  3. **相对奖励**:计算组内平均奖励 𝑟ˉ=1𝑁∑𝑖=1𝑁𝑟𝑖rˉ=N1​∑i=1N​ri​,然后计算相对奖励 𝑟^𝑖=𝑟𝑖−𝑟ˉr^i​=ri​−rˉ。这样做的好处是减少奖励方差,使训练更稳定。

  4. **策略更新**:使用相对奖励更新策略,同时添加 KL 散度惩罚,防止策略偏离参考模型太远。

  5. **重复**:重复上述步骤,直到完成所有训练轮次。

https://mp.weixin.qq.com/s/1phqxsmsDCGm14p4kesKaA

相关推荐
User_芊芊君子3 分钟前
CANN数学计算基石ops-math深度解析:高性能科学计算与AI模型加速的核心引擎
人工智能·深度学习·神经网络·ai
小白|7 分钟前
CANN与联邦学习融合:构建隐私安全的分布式AI推理与训练系统
人工智能·机器学习·自动驾驶
艾莉丝努力练剑14 分钟前
hixl vs NCCL:昇腾生态通信库的独特优势分析
运维·c++·人工智能·cann
执风挽^15 分钟前
Python基础编程题2
开发语言·python·算法·visual studio code
梦帮科技15 分钟前
Node.js配置生成器CLI工具开发实战
前端·人工智能·windows·前端框架·node.js·json
程序员泠零澪回家种桔子17 分钟前
Spring AI框架全方位详解
java·人工智能·后端·spring·ai·架构
Echo_NGC223720 分钟前
【FFmpeg 使用指南】Part 3:码率控制策略与质量评估体系
人工智能·ffmpeg·视频·码率
纤纡.30 分钟前
PyTorch 入门精讲:从框架选择到 MNIST 手写数字识别实战
人工智能·pytorch·python
大大大反派31 分钟前
CANN 生态中的自动化部署引擎:深入 `mindx-sdk` 项目构建端到端 AI 应用
运维·人工智能·自动化
程序猿追32 分钟前
深度解读 AIR (AI Runtime):揭秘 CANN 极致算力编排与调度的核心引擎
人工智能