DataWhale大模型基础与量化微调task4学习笔记(第 2 章:高级微调技术_RLHF 技术详解)

(本博客为Datawhale的baseLLM开源学习项目的学习笔记)

通过前面的学习,我们已经知道如何通过PEFT,用较低的成本让大语言模型适应下游任务。无论是PEFT还是全量微调,主要方法大多是有监督微调(SFT),即用成对的"(指令,回答)"数据来训练模型。但是,SFT存在一个重要的局限。它教会模型模仿高质量的范例,但无法让模型理解人类的偏好。一个SFT模型或许能很好地回答"中国的首都是哪里?",但当面对更开放、更复杂的指令,如"为我的项目写一个即专业又有创意的介绍"时,SFT的局限性就暴露无疑:

**缺乏泛化能力:**模型只能很好地响应数据集中出现过的指令模式,无法覆盖用户千奇百怪的真实意图。

**"对齐"不足:**模型的回答可能在事实上正确,但在风格、语气、安全性或有用性上,并不符合人类的期望。他只知道"正确答案",却不知道"更好的答案"。

一、模型对齐的必要性

为了跨越从"遵循指令"到"模型偏好"的鸿沟,我们需要一种新的训练范式。基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)正是解决这一问题的关键技术。它的核心目标就是让模型超越简单的模仿学习,真正理解并内化人类复杂的价值观,使其输出更符合我们的期望。

下表总结了SFT与RLHF在核心理念与实现方式上的关键差异:

如下图所示,RLHF的有效性在实践中得到了强有力的验证。在InstructGPT的研究中,经过RLHF对齐后,仅有13亿参数的模型,在人类评估中的表现甚至超过了1750亿参数的原始GPT-3模型。这说明,让模型"懂"人类偏好,比单纯增加参数规模更能提升其实用性。

二、通往对齐模型的三大阶段

在实践中,对齐训练通常划分为三个阶段,分别面向通用语言能力、指令遵循与偏好对齐:

(1)基础模型预训练

在大规模(万亿级Token)无标注文本数据(网页、书籍、代码等)上进行自回归预训练。通过预测下一个词的任务,模型能够习得广泛的语料知识并具备基础的生成能力,从而得到一个基础语言模型。虽然此时模型尚未进行指令或偏好对齐,但这一阶段的训练门槛极高,不仅算力成本巨大,还需在超大规模数据与模型上解决复杂的收敛稳定性问题。

(2)有监督指令微调

使用少量(千到几万条)高质量"指令-回答"对,对基础模型进行有监督微调,使其学会理解并执行人类指令。这一阶段通常使用(prompt, response)格式的数据,并可结合QLoRA等参数高效微调技术进行训练。它的目标是在指令上下文中实现条件生成,以此显著提升模型的指令遵循与任务完成能力,最终获得一个在指定任务与约束条件下更为可控的"指令模型"(Instruction-tuned LM)。高质量的SFT数据集是模型能力养成的关键。根据目标的不同,数据集可以分为两类:

**任务型指令数据集:**如WizardLM Evol-Instruct 70k(AI生成)和Dolly-15k(专家编写),它们主要由单轮的"指令-回答"构成,核心目标是教会模型如何"做事",准确地遵循指令完成特定任务

**对话型数据集:**这类数据集的代表作就是OpenAssistant(OASST)。它专注于教会模型如何"聊天",其独特性和重要性体现在:

**来源真实且多样:**数据由超过1.3万名真实志愿者众包贡献,覆盖了广泛的话题和真实的语言风格,而非AI生成或专家编写的固定模式。

**专注于多轮对话:**OASST的核心是多轮对话树,完整记录上下文、分支和用户的追问。这对于训练模型理解上下文、进行连贯的长对话至关重要。

**丰富的反馈信号:**数据不仅包含对话文本,还有人工标注的质量评分和多种标签(可作为偏好学习/奖励建模的有益信号)。这使其不仅是优秀的SFT数据,也是训练奖励模型(Reward Model)、进行RLHF的宝贵材料。

简单来说就是任务型数据集教会模型"智商",而以OASST为代表的对话数据集则赋予模型"情商",使模型更接近一个真正能与人交流的智能助手。

(3)基于人类反馈的强化学习

这一阶段是模型从"及格"走向"卓越"的关键跨越。虽然经过SFT微调的模型已经能流畅地遵循指令,但它本质上仍是在进行"模仿学习",受限于标注数据的质量,会存在"只知其一不知其二"地问题,且容易产生幻觉或不安全地输出。RLHF引入了人类价值观作为指导信号,通过构建奖励模型来模拟人类的判别标准,并利用强化学习算法让模型在生成过程中不断"试错"并学习如何获得更高的奖励。这一过程不再要求模型死记硬背固定的标准答案,而是鼓励它探索出更符合有用性(Helpful)、诚实性(Honest)和无害性(Harmless)(简称3H原则)的回复路径。

三、RLHF的形式化定义

在深入具体步骤之前,我们需要理解为什么文本生成任务可以被建模为强化学习问题。在RLHF框架中,将Token生成过程建模为"片段的(Episodic)马尔科夫决策过程(MDP)"是连接NLP与RL的核心桥梁。这个"片段"特指"从接收用户提示到生成完整输出"的单次生成任务。

状态(State,):当前已生成的上下文,包括用户提示x和已生成的Token序列y<t。即

动作(Action,):模型在当前时间步生成的下一个Token

策略(Policy,):即我们的大语言模型。对应模型在当前上下文下预测下一个Token的概率分布。

奖励(Reward,):通常在整个回答生成完毕(Episode结束)后,由奖励模型给予一个标量反馈。中间步骤的奖励通常为0。

在这个定义下,RLHF的目标就是寻找一个最优策略,使得生成的完整序列期望奖励最大化:

理解了这一形式化定义,我们就能明白为什么PPO等算法可以通过试错(Sampling)和反馈(Reward)来调整模型参数,从而让模型生成的"轨迹"(文本)更符合人类偏好。

四、RLHF的核心步骤

如下图所示,RLHF的流程主要包含三个核心步骤。首先通过有监督微调得到初始化策略模型;然后,收集人类偏好数据训练一个奖励模型;最后,使用奖励模型作为信号,通过强化学习算法(如PPO)进一步优化策略模型。

1.训练奖励模型

在RLHF中,我们需要一个"裁判",用来评判模型的哪个回答更好;这个"裁判"就是奖励模型(RM)。RM的目标是学习一个函数r(x, y),输入提示x和回答y,输出一个标量分数,代表人类中对该回答的偏好程度。在InstructGPT的实践中,RM数据集约含33k个训练提示(由此衍生出数量级更大的成对比较样本)。接下来,分别介绍一下如何收集人类偏好数据,以及训练奖励模型。

(1)收集人类偏好数据

第一步需要准备一个指令(prompt),可从真实用户请求中选取,也可由标注员设计;让SFT模型针对该指令生成多个(InstructGPT中为4-9个)不同的回答;由人工标注员对这些回答进行排序(Ranking),从最好到最差。相比于给每个回答打一个绝对分数,排序是一种对人类更友好、也更一致的标注方式。这些排序数据构成了偏好数据集,其中是比更受偏好的回答(winner),是较差的回答(loser)。

(2)训练奖励模型

训练奖励模型的常见做法包括以下几点。

将一个包含k个回答的排序数据,转换成个成对的比较数据。例如,(回答A>回答B)、(回答A>回答C)...

奖励模型(RM)通常和我们正在优化的语言模型结构类似(但可以小得多),它的任务不是生成文本,而是输入(prompt, response),输出一个标量分数reward。

训练RM的目标是,让它给人类偏好的回答打出更高的分数。这通常基于Bradley-Terry模型,该模型假设人类对两个回答的偏好概率可以用它们的潜在奖励分数通过Sigmoid函数来建模:

其损失函数(负对数似然)如下:

其中是奖励模型,比更受偏好的回答,σ是Sigmoid函数。这个损失函数旨在最大化偏好回答与非偏好回答之间的分数差距。

经过训练,RM能够逼近人类偏好函数,作为自动化的偏好评估器,为后续策略优化提供稳定的标量奖励信号。

2.使用策略优化算法微调模型

有了"裁判"(或者隐式的偏好信号),就可以开始真正的"强化学习"训练了。这个阶段的目标是更新语言模型的策略,让它生成的回答能够获得更高的奖励。传统的强化学习算法存在高方差、训练不稳定的问题。因此,学术界和工业界发展出了一系列更先进的策略优化算法,其中PPO、DPO和GRPO是目前的主流。

如下图所示,不同的对齐范式在流程设计上有所侧重。经典的RLHF范式依赖奖励模型和PPO进行在线优化;DPO直接基于偏好数据进行离线优化;而RLVR则利用确定性的验证器(如代码执行器)结合GRPO进行训练

2.1 PPO与"对齐税"

近端策略优化(Proximal Policy Optimization, PPO)是RLHF中最经典的算法。PPO的主要思路是,在尝试最大化奖励的同时,通过一个约束项来限制新旧策略的差异范围,继而避免单步更新过大导致训练崩溃。它通过优化一个"替代目标函数"(Surrogate Objective)来实现这一点。PPO最常用的替代目标是Clipped Surrogate Objective:

其中,是新旧策略的概率比,是优势函数估计,是一个限制更新范围的超参数(通常为0.2)。这个裁剪操作有效地构建了一个悲观的下界,防止策略更新过于激进。

下图是PPO裁剪代理目标函数的单步示意图。当优势时(左)目标函数随概率比的增加而增加,但增长被限制在处;当时(右),目标函数随的增加而减小,但减小幅度被限制在处,从而约束了策略更新的步长。

但研究者发现,单纯用PPO优化奖励模型,可能会导致模型在某些传统NLP任务(如SQuAD)上的性能下降,这种现象称为"对齐税"(Alignment Tax)。为了解决这个问题,InstructGPT提出了一种名为PPO-ptx的变体,它在优化奖励的同时,混合了一部分预训练数据的梯度,其优化目标为:

其中:

PPO主目标项(奖励+KL约束):在当前策略生成的数据分布上,最大化奖励模型分数,并用token KL约束惩罚新策略偏离参考模型,以抑制灾难性漂移。

预训练保留项(ptx):在预训练语料上进行最大似然学习,用于保留通用语言能力与知识面,缓解"对齐税"。

符号说明:β控制KL约束强度;γ控制ptx项权重;为在线由当前策略采样的数据分布;为静态预训练语料;KL为每token KL散度。

通过下图可以看到PPO-ptx缓解了RLHF在部分公开NLP数据集上的性能下降(对齐税)问题。图中PPO-ptx模型(红色)代表混合了预训练梯度,而PPO模型(橙色)则没有。在SQuADv2、DROP等多个任务上,PPO-ptx的性能显著优于单纯的PPO。

2.2 直接偏好优化

尽管PPO效果很好,但它流程复杂(需要训练奖励模型、价值模型,并进行在线采样),训练成本高且不稳定。直接偏好优化(Direct Preference Optimization, DPO)是一项创新的技术,它巧妙地绕过了显式的奖励模型训练和复杂的强化学习过程。

主要思路: DPO证明了,我们可以从人类偏好数据中,直接推导出最优策略,而无需先拟合一个奖励模型。他将问题转化为一个简单的分类任务,不需要显式训练奖励模型,也无需在线采样,所以更稳定、高效。

**优化目标:**DPO的损失函数直接最大化模型对"更好"回答的偏好概率,同时用KL散度进行约束:

其中是参考模型(通常是SFT模型),σ是Sigmoid函数。这个损失函数简洁地鼓励模型提高地概率,降低的概率。

训练动力学: DPO的梯度更新有一个直观的解释。它会给那些被隐式奖励模型错误排序的样本(即认为更好)更大的权重,从而集中火力修正模型的"判断失误"。这个隐式奖励由下式定义:

**优势:**由于其简单、稳定且高效,DPO及其变种正在迅速成为RLHF的新范式。

如下图所示,该图展示了在IMDb情感生成任务中,不同偏好学习算法的Reward-KL效率前沿。DPO(黄色散点)在所有KL散度值上都获得了最高的期望奖励,表明DPO能够更有效地在最大化奖励和与参考模型的KL散度约束之间进行权衡,其优化效果优于PPO等基线方法。

2.3 群体相对策略优化

**群体相对策略优化(Group Relative Policy Optimization, GRPO)**是DeepSeek在2024年发布的DeepSeekMath中提出的一种高效算法。此时DPO(2023)虽已流行,但主要用于偏好对齐;而在数学、代码等带可验证奖励(Reinforcement Learning with Verifiable Rewards, RLVR)的场景中,模型更需要通过在线探索(Online Exploration)来寻找正确路径,而非仅仅拟合静态数据。

RLVR的核心逻辑是用确定性的验证器(Validator)取代主观的奖励模型。这种强反馈消除了Reward Hacking中"欺骗人类"的可能性,并驱动模型通过自我博弈(Self-Play)涌现出思维链(CoT)等高级推理能力。然而,传统的PPO算法需要维护一个与策略模型规模相当的价值网络(Critic),在训练千亿参数规模时显存开销巨大。GRPO的关键创新是"去Critic化",它通过组内统计量来替代Critic的基线估计功能:

组采样(Group Sampling): 对于同一个提示词x,利用旧策略采样生成一组输出

组内优势估计(Group Relative Advantage): 利用奖励模型或验证器对这组输出打分。关键在于,GRPO不使用额外的Critic来预测基线,而是直接使用组内奖励的均值作为动态基线。这种方法不仅显著降低了显存占用(无需维护与策略模型同等规模的Critic),还有效利用了组内对比来降低方差。对于每个输出,其优势通常通过标准化计算得出:

KL散度正则化: 与PPO通常在奖励函数中直接扣除KL惩罚不同,GRPO将KL散度直接加入损失函数中作为正则项。这样做的好处是保持了优势估计的纯粹性,使其仅反映组内输出的相对好坏,而不会被KL惩罚项混淆。

通过这种设计,GRPO既保留了PPO在线探索的能力(适合推理任务),又享受了类似DPO的低资源消耗,成为DeepSeek-R1等推理模型背后的关键技术。下图所示的时间线展现了使用强化学习训练的代表性推理模型的发展。这一过程囊括了各类开源与闭源的语言模型、多模态模型以及智能体模型。其中,OpenAI o1与DeepSeek-R1作为推理模型领域的关键里程碑,有力证明了可验证奖励训练的重要性。通过这种训练,模型得以掌握包括规划、反思及自我纠错在内的长链推理能力。

2.4 算法选择指南

**PPO(稳定性与通用性):**PPO适用于各类需与环境交互的通用任务(如游戏AI、机器人控制)。在LLM领域,当系统已经有了成熟的RL框架,或者需要对模型行为进行极细粒度的控制(如复杂的指令遵循、多轮对话策略)时,PPO仍然是首选。它通过显式的Critic模型进行价值估计,能够处理更复杂的奖励信号,但计算成本较高。

**DPO(效率与数据利用):**DPO是样本数据稀缺或追求高训练效率场景下的利器。但由于它绕过了显式的奖励建模和在线采样,直接利用离线偏好数据进行优化,因此非常适合快速迭代或计算资源有限的项目(如对话风格微调、摘要生成)。它能高效利用有限的标注数据,但在缺乏大规模探索的情况下,上限可能不如RL方法。

**GRPO(推理与长序列奖励):**针对奖励常在序列末尾给出(如数学最终答案、代码运行结果)的场景,GRPO是最佳选择。它解决了PPO难以给每个Token精确分配价值的难题,通过组采样(Group Sampling)和组内优势估计来优化策略。GRPO去除了Critic模型,显著降低了显存占用,非常适合需要在线探索以涌现思维链(CoT)能力的复杂推理任务(如DeepSeek-R1)。

3.RLHF的实际效果

以InstructGPT为例,RLHF带来了显著且复杂的影响。下图展示了模型在TruthfulQA基准上的真实性表现。其中,灰色柱表示"真实性(truthfulness)",彩色柱表示"真实性与信息量(truthfulness and informativeness)"。整体来看,经过RLHF的InstructGPT模型(PPO-ptx/PPO)在TruthfulQA上比较GPT-3基线更真实且更具信息量。但需注意,原论文报告1.3B的PPO-ptx模型在TruthfulQA上略低于同尺寸GPT-3。

更具体地说,这些效果体现在以下几个方面:

**提升真实性:**在TruthfulQA等基准上,模型生成真实、信息丰富答案地频率提升了约一倍,且在封闭问答中"捏造事实"地比例减半。

**降低有害性:**当被明确指示要"尊重地"回答时,模型产生有毒输出地比例比原始GPT-3减少了约25%。

**偏见问题依然存在:**在衡量社会偏见的数据集(如Winogender)上,RLHF并没有带来明显改善。

**仍会犯错:**模型有时仍会盲目遵循错误的指令前提(例如,回答"为什么要饭后吃袜子"),或者在简单问题上过度"耍滑头"、含糊其辞。

4.RLHF的实践挑战与前沿方向

尽管RLHF效果显著,但它也面临着巨大的挑战,许多问题仍在探索之中。一篇近期的综述论文系统性地梳理了这些挑战。首先是奖励过拟合(Reward Hacking),这是核心挑战之一,模型可能会学会利用奖励模型的漏洞,通过生成过分追求详细而导致啰嗦、避而不答、或"听起来不错"的无意义内容来获取高分,这要求在数据收集和模型训练中进行仔细的权衡和约束;其次是评估困境,如何准确评估一个模型是否真的与人类价值观"对齐"是一个开放性问题,现有的基准测试可能无法完全覆盖人类偏好的广度和深度,而LLM-as-a-Judge的方法也存在自身的偏见和提示敏感性问题;再者是多模态对齐,当前RLHF主要集中在文本,如何将其有效扩展到视频、音频等多模态场景,解决视觉幻觉、时序理解等新问题,是一个重要方向;同时,文化与价值观对齐也面临困难,主流的偏好数据大多来自单一文化背景,这使得模型可能无法理解和尊重多样化的文化、价值观和人口特征,甚至会放大偏见;还有就是效率与成本(低延迟对齐)问题,RLHF流程(特别是基于PPO的方法)计算成本高昂,探索更轻量级的对齐方法(例如在推理时进行对齐)和更高效的算法,是降低成本、实现低延迟响应的关键。

针对上述挑战,学术界和工业界正探索更先进的对齐路径。其中具有代表性的方向包括:

(1)**RLAIF(Reinforcement Learning from AI Feedback):**使用更强大的AI模型产生偏好信号,作为人类标注的补充或替代,以降低收集成本并缓解主观偏见。

(2)**迭代式后训练(Iterative Post-training):**如LLaMA3的做法,不再是一次性的RLHF,而是将"采样->偏好标注->DPO/PPO训练"作为一个循环不断迭代。前一轮的最优模型成为下一轮的数据生成器,实现模型的持续自我进化。

(3)**从对话到推理(Reasoning Models):**以OpenAI o1和DeepSeek-R1为代表,通过引入RLVR和长思维链(CoT),让模型在后训练阶段不仅仅是对齐偏好,更是通过强化学习探索复杂的逻辑推理路径,实现"慢思考"能力的涌现。这标志着RLHF正从单纯的"对齐"工具,演变为激发模型深层智能的关键手段。

相关推荐
Darkershadow2 小时前
蓝牙学习之Time Set
python·学习·蓝牙·ble·mesh
傻小胖2 小时前
13.BTC-思考-北大肖臻老师客堂笔记
笔记·区块链
好奇龙猫2 小时前
【日语学习-日语知识点小记-日本語体系構造-JLPT-N2前期阶段-第一阶段(9):単語文法】
学习
AI浩2 小时前
约束模型下的目标检测置信学习
学习·目标检测·目标跟踪
m0_748229993 小时前
ThinkPHP快速入门:从零到实战
c语言·开发语言·数据库·学习
風清掦3 小时前
【江科大STM32学习笔记-04】0.96寸OLED显示屏
笔记·stm32·学习
胡西风_foxww3 小时前
ObsidianAI_学习一个陌生知识领域_建立学习路径和知识库框架_写一本书
人工智能·笔记·学习·知识库·obsidian·notebooklm·写一本书
Haooog3 小时前
AI应用代码生成平台
java·学习·大模型·langchain4j
非凡ghost3 小时前
ShareX(免费截图录屏软件)
windows·学习·软件需求