PPO到GRPO自己话总结

==**通俗易懂的来说**==

PPO的总体流程就是用policy model(训练的模型)去生成样本组,然后计算奖励V,用v去计算advantage,然后去更新policy和value

\[Agentic RL和RLHF区别是什么?\]

他主要有四个模型

1、policy model(待训练的模型)

2、reference model (被冻结的老模型)

3、reward model 打分模型

4、value model 估分基准模型

==**advantage=reward-value,如果是多步的(即中间有reward的,即用累计的reward-value)**==

然后GRPO是对PPO的一种简化方法,他不需要value model,使用组内相对奖励代替绝对奖励,取代了V

理论上只需要 Policy Model 和 Reference Model;

那他怎么算reward,如果有真值答案,那直接真值判分

也可以用llm as judge,看具体情况

PPO的问题就是太依赖老师的value能力,这个value很有可能不准

而GRPO一次生成多条样本,只进行相对比较,用均值(或者别的)作为PPO里面的value

然后再拿reward减去group_mean_reward

GRPO 的训练循环包括以下步骤:

  1. **采样阶段**:对于每个问题,使用当前策略生成多个答案(`num_generations`个)。这些答案构成一个"组",用于计算相对奖励。

  2. **奖励计算**:对每个生成的答案计算奖励 𝑟𝑖ri​。奖励可以是准确率、长度惩罚、步骤奖励或它们的组合。

  3. **相对奖励**:计算组内平均奖励 𝑟ˉ=1𝑁∑𝑖=1𝑁𝑟𝑖rˉ=N1​∑i=1N​ri​,然后计算相对奖励 𝑟^𝑖=𝑟𝑖−𝑟ˉr^i​=ri​−rˉ。这样做的好处是减少奖励方差,使训练更稳定。

  4. **策略更新**:使用相对奖励更新策略,同时添加 KL 散度惩罚,防止策略偏离参考模型太远。

  5. **重复**:重复上述步骤,直到完成所有训练轮次。

https://mp.weixin.qq.com/s/1phqxsmsDCGm14p4kesKaA

相关推荐
编程大师哥2 小时前
JavaScript 和 Python 哪个更适合初学者?
开发语言·javascript·python
aiguangyuan2 小时前
从零构建字符级RNN:用PyTorch实现莎士比亚风格文本生成
人工智能·python·nlp
Yiyaoshujuku2 小时前
疾病的发病率、发病人数、患病率、患病人数、死亡率、死亡人数查询网站及数据库
数据库·人工智能·算法
larance2 小时前
机器学习分类和设计原则
人工智能·机器学习·分类
boring_1112 小时前
AI时代本质的思考
网络·人工智能·智能路由器
红尘炼丹客2 小时前
论文《LLM-in-Sandbox Elicits General Agentic Intelligence》解析
人工智能·深度学习·大模型·llm-in-sandbox
梦幻精灵_cq2 小时前
《双征color》诗解——梦幻精灵_cq对终端渲染的数据结构设计模型式拓展
数据结构·python
青主创享阁2 小时前
玄晶引擎:基于多模态大模型的全流程AI自动化架构设计与落地实践
运维·人工智能·自动化
世优科技虚拟人2 小时前
从吉祥物“复活”到AI实训:世优科技数字人赋能智慧校园升级
人工智能