DeepSeek-R1相关论文解读

**另:**数学推理论文篇:DeepSeekMath

一、DeepSeek-R1-Zero和DeepSeek R1区别

都使用了RL强化学习中的GROP,但是R1还使用了SFT,进行了多阶段训练。

1. 什么是SFT?

SFT是给模型一些正确例子:情况1 + answer,情况2 + answer,在模型学会在什么情况下回答什么。

没教的情况,模型就不一定知道该做什么, 它会找到SFT数据类似的情况模仿,模型可对可错。即SFT提供的都是正反馈,无法提供负反馈。

SFT之后的模型,本质提搞的是某些token在某些情况下的概率,那么存在提高Prob(E|ABCD)的概率,也会顺带提高下 Prob(E|ACD )的概率。

也就是"我不喜欢->猫"的概率增加的同时, " 我喜欢->猫"的概率也会增加,但是这两个句子明明是相反的句子。SFT只是预测下一个token的概率,显然考虑整个句子的意思。

2. RL优势在哪?

SFT的反馈粒度是token,RLHF更倾向于考虑整体影响。

理论上RL的上限更高一些,也容易训崩,SFT的上限取决SFT的数据

因此推理能力的提升以及突破模型的推理能力的上限,需要靠RL。

3. 为什么R1要用SFT?

强化学习初期的不稳定性(因为强化学习,对数据的格式也有奖励,已经SFT的模型会输出稳定的格式,强化学习在格式方向的优化会加快收敛)。

提升模型输出的可读性(用规范的冷启动的数据SFT base model之后,模型的输出也会按照特定的格式来,后续强化学习的采样过程,也是按照特定的格式来,强化学习之后的模型也是按照特定的格式输出,便于后期处理)

4. 多阶段训练目的?

Stage1:

为了生成更好推理数据。先训练了一个用于生成高质量推理数据的model (训练过程是SFT+RL),后使用这个model生成数据,并进行过滤(拒绝采样),最终得到精度更高的推理数据。

Stage2:

更高的推理数据混合非推理的数据是为了克服模型经过推理数据调整参数后产生的"再难遗忘",导致其它非推理类任务效果变差。

二、aha moment

DeepSeek-R1-Zero 学会了重新评估和反思 。它突显了强化学习的力量和美妙之处:不需要明确地教模型如何解决问题,而是通过提供正确的激励,让它自主地发展出高级的解决问题策略。

三、DeepSeek-R1-Zero 的缺陷

四、DeepSeek-R1 整体训练流程

  1. 冷启动数据对大模型进行微调
  2. 再对V3模型进行强化
  3. 得到deepseek中间态
  4. 采用rejection sampling拒绝采样得到reasoning的data继续对V3进行微调
  5. 转向3进行GRPO强化
  6. 几轮之后效果很好,对Quen和LLAMA3.3进行蒸馏

五、GROP算法原理 RL+LLM

主流RLHF方向分为两大路线:

  • On policy: 让模型自己做生成,根据模型生成结果的好坏来打分,用于指导模型进行更新。
    • 每次训练都基于自己的生成模型Actor,通过教练Off policy反馈奖励;
    • 优势是效率高,但是训练后的模型能力可能不够;
  • Off policy: 模型不需要亲自输出答案,根据给定的「好坏样本」来进行模拟学习。
    • 基于现有 标注情况进行分析,存在训练样本可能与模型不匹配的问题;
    • 可能达到模型能力上限,问题是效率低。

1. PPO算法?

Critic 是和 Actor 一起训练的。

Reward Model:用于给出最终分数的模型。

Reference Model :目的是为了让 actor 不要训练偏离太远**。**

4个模型中,Actor生成文本,Critic评估预期收益,两者配合优化策略;Reward提供即时反馈,Reference模型则通过KL散度约束生成内容的稳定性。

2. why GRPO?

**Group Relative Policy Optimization:**应用于LLMs,在复杂任务(如数学推理和代码生成)表现的很好。

核心思想: 通过组内相对奖励优化模型,而不是传统的批评critic模型。

伪代码如下:

与PPO相对一致,区别在:

没有利用critic model求A,直接暴力n次求均值;只有Policy模型,没有Value模型。

  • 无需额外的价值函数:
    • GRPO 使用组内平均奖励作为基线,避免了训练额外的价值函数,从而减少了内存和计算负担
  • 与奖励模型的比较性质对齐:
    • GRPO 使用组内相对奖励计算优势函数,这与奖励模型通常在同一问题的不同输出之间进行比较的性质相符。
  • KL惩罚在损失函数中:
    • GRPO 直接将训练策略 θ 和参考策略 πref 之间的 KL 散度添加到损失中,而不是像 PPO 那样在奖励中添加 KL 惩罚项,从而避免了复杂化 A^i,t 的计算。

六、小结

参考:

[1] Shao Z, Wang P, Zhu Q, et al. Deepseekmath: Pushing the limits of mathematical reasoning in open language models[J]. arXiv preprint arXiv:2402.03300, 2024.

[2] Guo D, Yang D, Zhang H, et al. Deepseek-r1: Incentivizing reasoning capability in llms via reinforcement learning[J]. arXiv preprint arXiv:2501.12948, 2025.

[3] DeepSeek-R1-Zero 和Deep seek R1 技术详解 && GRPO的训练方法 - 知乎 (zhihu.com)

[4] DeepSeek-R1深度解读,大模型+强化学习重挫英伟达!_哔哩哔哩_bilibili

相关推荐
之歆2 小时前
Spring AI入门到实战到原理源码-MCP
java·人工智能·spring
知乎的哥廷根数学学派3 小时前
面向可信机械故障诊断的自适应置信度惩罚深度校准算法(Pytorch)
人工智能·pytorch·python·深度学习·算法·机器学习·矩阵
且去填词3 小时前
DeepSeek :基于 Schema 推理与自愈机制的智能 ETL
数据仓库·人工智能·python·语言模型·etl·schema·deepseek
待续3013 小时前
订阅了 Qoder 之后,我想通过这篇文章分享一些个人使用心得和感受。
人工智能
weixin_397578023 小时前
人工智能发展历史
人工智能
强盛小灵通专卖员3 小时前
基于深度学习的山体滑坡检测科研辅导:从论文实验到系统落地的完整思路
人工智能·深度学习·sci·小论文·山体滑坡
OidEncoder3 小时前
从 “粗放清扫” 到 “毫米级作业”,编码器重塑环卫机器人新能力
人工智能·自动化·智慧城市
Hcoco_me3 小时前
大模型面试题61:Flash Attention中online softmax(在线softmax)的实现方式
人工智能·深度学习·自然语言处理·transformer·vllm
哥布林学者3 小时前
吴恩达深度学习课程五:自然语言处理 第一周:循环神经网络 (七)双向 RNN 与深层 RNN
深度学习·ai
阿部多瑞 ABU4 小时前
`chenmo` —— 可编程元叙事引擎 V2.3+
linux·人工智能·python·ai写作