PPO到GRPO自己话总结

==**通俗易懂的来说**==

PPO的总体流程就是用policy model(训练的模型)去生成样本组,然后计算奖励V,用v去计算advantage,然后去更新policy和value

\[Agentic RL和RLHF区别是什么?\]

他主要有四个模型

1、policy model(待训练的模型)

2、reference model (被冻结的老模型)

3、reward model 打分模型

4、value model 估分基准模型

==**advantage=reward-value,如果是多步的(即中间有reward的,即用累计的reward-value)**==

然后GRPO是对PPO的一种简化方法,他不需要value model,使用组内相对奖励代替绝对奖励,取代了V

理论上只需要 Policy Model 和 Reference Model;

那他怎么算reward,如果有真值答案,那直接真值判分

也可以用llm as judge,看具体情况

PPO的问题就是太依赖老师的value能力,这个value很有可能不准

而GRPO一次生成多条样本,只进行相对比较,用均值(或者别的)作为PPO里面的value

然后再拿reward减去group_mean_reward

GRPO 的训练循环包括以下步骤:

  1. **采样阶段**:对于每个问题,使用当前策略生成多个答案(`num_generations`个)。这些答案构成一个"组",用于计算相对奖励。

  2. **奖励计算**:对每个生成的答案计算奖励 𝑟𝑖ri​。奖励可以是准确率、长度惩罚、步骤奖励或它们的组合。

  3. **相对奖励**:计算组内平均奖励 𝑟ˉ=1𝑁∑𝑖=1𝑁𝑟𝑖rˉ=N1​∑i=1N​ri​,然后计算相对奖励 𝑟^𝑖=𝑟𝑖−𝑟ˉr^i​=ri​−rˉ。这样做的好处是减少奖励方差,使训练更稳定。

  4. **策略更新**:使用相对奖励更新策略,同时添加 KL 散度惩罚,防止策略偏离参考模型太远。

  5. **重复**:重复上述步骤,直到完成所有训练轮次。

https://mp.weixin.qq.com/s/1phqxsmsDCGm14p4kesKaA

相关推荐
七颗糖很甜几秒前
雨滴谱数据深度解析——从原始变量到科学产品的Python实现【下篇】
python·算法·pandas
用户5191495848452 分钟前
RenderTune RCE 漏洞利用演示 - XSS到远程代码执行
人工智能·aigc
爱码小白2 分钟前
MySQL 常用数据类型的系统总结
数据库·python·算法
佳木逢钺4 分钟前
太宗多维评估模型:用50个变量数学建模唐太宗,探索历史与AI的跨界融合
人工智能·数学建模
GIS数据转换器5 分钟前
车辆监控管理系统
人工智能·3d·无人机·知识图谱·旅游
呆码科技5 分钟前
数据驱动决策:商贸物流软件的数据分析与预测功能
大数据·人工智能
低空闲话与AI杂谈6 分钟前
OpenClaw 多飞书机器人完整配置教程(Docker 部署版)
人工智能
xcbrand6 分钟前
专精特新品牌全案公司有哪些
大数据·人工智能·python
波动几何6 分钟前
五层能力架构全景
人工智能
攻城狮7号9 分钟前
面向未来的时序数据库选型指南:当数据存储遇上原生AI
数据库·人工智能·时序数据库·apache iotdb