大模型基础(四):强化学习入门-从斯金纳箱到大模型推理

2025年图灵奖颁给了强化学习的奠基人Richard Sutton和Andrew Barto。为什么强化学习如此重要?它如何从训练老鼠变成训练大模型?这篇文章带你一探究竟。


一、一个老鼠实验引发的革命

1.1 斯金纳箱:强化学习的源头

1930年代,心理学家斯金纳做了一个著名实验:

实验过程

  1. 把一只老鼠放进箱子
  2. 箱子里有一个杠杆
  3. 老鼠偶然按压杠杆 → 食物掉出来(奖励)
  4. 多次之后 → 老鼠主动频繁按压杠杆

老鼠学会了什么?

"按杠杆 = 有吃的!"

这就是强化学习的核心思想通过尝试动作,根据获得的奖励调整行为

1.2 从老鼠到AI

半个世纪后,这个思想启发了AI研究者:

如果老鼠能通过"奖励"学会行为,机器能不能也这样学习?

1950年,图灵提出"通过奖惩机制训练机器"的设想。

1957年,Minsky正式提出"强化学习"概念。


二、什么是强化学习?

2.1 定义

强化学习(Reinforcement Learning, RL):让智能体通过与环境交互和"试错",学习最优决策策略以最大化长期累积奖励。

类比

强化学习就像训练宠物:它做对了给奖励(零食),做错了不给奖励。慢慢地,它就学会做正确的事情。

2.2 和其他机器学习方法有什么不同?

机器学习有三大范式:

类型 学习方式 数据特点 例子
有监督学习 从标注数据学习映射 有"标准答案" 图像分类
无监督学习 从数据中发现模式 无标签 聚类分析
强化学习 通过交互和奖励学习 数据来自交互过程 游戏AI

关键区别

  • 有监督学习:老师告诉你答案("这是猫")
  • 无监督学习:自己找规律("这些图片很像")
  • 强化学习:环境告诉你好不好("得分+10")

2.3 强化学习在学什么?

强化学习的目标:学一套"看情况做决定"的策略

把任何状态映射成最优动作,使得长期累计奖励最大。


三、强化学习的核心概念

3.1 五大要素

用一个例子来理解:训练一个游戏AI

概念 游戏中的例子 说明
智能体(Agent) 游戏AI 决策和行动的主体
环境(Environment) 游戏世界 智能体所处的外部系统
状态(State) 当前游戏画面 环境在某一时刻的描述
动作(Action) 移动、攻击、跳跃 智能体可执行的行为
奖励(Reward) 得分+10、被击中-5 环境对动作的反馈

3.2 策略和价值函数

策略(Policy):智能体选择动作的规则

  • "看到敌人就攻击"
  • "血量低就逃跑"

价值函数(Value Function):评估某个状态长期能获得多少奖励

  • "当前状态很好(血量高、装备好)"
  • "当前状态很差(血量低、被包围)"

3.3 交互循环

循环过程

  1. 智能体观察当前状态
  2. 根据策略选择动作
  3. 环境执行动作,返回新状态和奖励
  4. 智能体根据奖励调整策略
  5. 重复...

四、强化学习的高光时刻

4.1 AlphaGo:震惊世界

时间 事件
2015年10月 AlphaGo击败人类职业选手樊麾
2016年3月 AlphaGo 4:1击败李世石
2017年5月 AlphaGo Master 3:0击败柯洁

AlphaGo的秘密

  • 使用强化学习自我对弈
  • 通过不断试错学习最优策略
  • 最终超越人类顶尖棋手

4.2 DeepSeek-R1:大模型的突破

2025年1月,DeepSeek发布DeepSeek-R1

这是一个里程碑:用强化学习训练大模型的推理能力

关键创新

  • 自我创建和调整的奖励系统
  • 在Math-500等基准测试中媲美OpenAI o1
  • 以极低算力成本实现顶尖性能

为什么重要?

证明了强化学习可以让大模型学会"推理",而不只是"预测下一个字"。

4.3 2025年图灵奖

获奖者:Richard Sutton和Andrew Barto

Richard Sutton的获奖感言:

"强化学习的本质是从经验中学习,这是最自然的学习方式。"


五、经典算法:Q-Learning

5.1 什么是Q-Learning?

Q-Learning是强化学习最经典的入门算法,1989年由Watkins提出。

核心思想:建立一个"Q表",记录每个状态-动作组合的价值。

5.2 Q表是什么?

想象一个迷宫游戏:

状态 动作 Q 值 (价值) 备注
位置 A 向左 0.1
位置 A 向右 0.8 价值最高
位置 A 向上 0.2
位置 B 向左 0.9 这里向左好
位置 B 向右 -0.1

智能体决策

  • 在位置A → Q表显示向右价值最高 → 选择向右
  • 在位置B → Q表显示向左价值最高 → 选择向左

5.3 Q值怎么更新?

Q值更新公式(贝尔曼方程):

复制代码
新Q值 = 当前Q值 + 学习率 × (奖励 + γ×最大未来Q值 - 当前Q值)

通俗解释

复制代码
你以为这个动作值10分
实际做了,立刻得到5分,加上预计未来最多能得8分
所以实际应该值5+8=13分
需要更新你的认识:从10分调到接近13分

5.4 Q-Learning的局限

Q表方法有一个致命问题:状态太多时,Q表存不下

比如:

  • 围棋状态:约10^170种(天文数字)
  • 游戏画面:像素级别的状态

解决方法:用神经网络代替Q表 → DQN(深度Q网络)


六、进阶算法:PPO与DPO

6.1 PPO:稳定高效的强化学习

PPO(Proximal Policy Optimization)是OpenAI开发的算法,广泛应用于大模型训练。

核心思想:每次更新策略时,不要改变太大,保持稳定。

类比

学习新技能时,不要一次学太多,慢慢进步,避免"走火入魔"。

PPO的优点

  • 训练稳定
  • 样本效率高
  • 易于实现

6.2 DPO:更简单的替代方案

DPO(Direct Preference Optimization)是一种新方法,不需要训练奖励模型

传统RLHF流程

复制代码
1. 训练奖励模型(RM)
2. 用奖励模型训练策略

DPO流程

复制代码
直接用偏好数据优化策略,一步到位!

为什么DPO好?

  • 更简单(省去RM训练)
  • 更稳定(减少训练步骤)
  • 效果接近传统方法

七、强化学习在大模型中的应用

7.1 RLHF:让模型更"听话"

RLHF(Reinforcement Learning from Human Feedback)是大模型训练的关键环节。

流程

  1. 模型生成多个回答
  2. 人类排序这些回答
  3. 训练奖励模型学习人类偏好
  4. 用RL优化模型,使其生成人类喜欢的回答

效果

  • 减少有害内容
  • 提高回答质量
  • 使模型更符合人类价值观

7.2 训练推理能力:DeepSeek-R1的创新

DeepSeek-R1展示了RL的新用法:训练推理能力

传统大模型问题

  • 只会"预测下一个字"
  • 缺乏逻辑推理能力

DeepSeek-R1的解决方案

  • 设计推理奖励(如"思考步骤是否正确")
  • 用RL训练模型学会推理
  • 自我创建奖励系统

结果

  • 数学推理能力大幅提升
  • 代码生成质量提高
  • 接近o1模型的推理水平

7.3 AlphaGo到大模型:同样的思想

AlphaGo和DeepSeek-R1有什么共同点?

对比 AlphaGo DeepSeek-R1
任务 围棋 文本推理
环境 棋盘 语言任务
奖励 赢棋得分 推理正确性
学习方式 自我对弈 自我推理

共同核心:通过自我试错,学习最优策略!


八、强化学习的挑战与局限

8.1 训练不稳定

RL训练容易出现:

  • 崩溃(奖励突然下降)
  • 震荡(忽好忽坏)
  • 收敛困难

原因:奖励信号稀疏,策略更新复杂

8.2 样本效率低

RL需要大量试错才能学习。

AlphaGo自我对弈了数百万盘棋!

8.3 多样性降低

Andrej Karpathy指出:RL会使模型的"熵降低"。

解释:模型变得更保守、更确定,可能减少创造性。

8.4 RM准确性问题

如果奖励模型(RM)判断错误,模型就会学错。

类比:如果老师评分标准有问题,学生就会学歪。


九、给技术人员的启示

9.1 什么时候用RL?

场景 适合RL? 原因
游戏AI ✅ 适合 有明确奖励(得分)
大模型后训练 ✅ 适合 人类偏好作为奖励
简单分类任务 ❌ 不适合 有监督学习更高效
需要创造性的任务 ⚠️ 需谨慎 RL可能降低多样性

9.2 RLHF vs DPO:选哪个?

方案 优点 缺点 适用场景
RLHF 效果可能更好 流程复杂 大规模训练
DPO 简单高效 效果可能略差 快速迭代

9.3 自己能实践RL吗?

可以! 开源工具:

  • Stable Baselines3:经典RL算法库
  • DeepSpeed-Chat:大模型RLHF框架
  • TRL:HuggingFace的RL训练库

实践建议

  1. 从简单环境开始(如CartPole游戏)
  2. 理解Q-Learning原理
  3. 尝试PPO算法
  4. 再进入大模型领域

十、总结:强化学习的本质

Richard Sutton说:

"强化学习的本质是从经验中学习,这是最自然的学习方式。"

从斯金纳箱里的老鼠,到打败围棋世界冠军的AlphaGo,再到推理能力强大的DeepSeek-R1------强化学习展示了AI的一种核心学习范式:

不是被告知答案,而是通过尝试和反馈,自己学会怎么做。

这正是通向更智能AI的关键路径!


关键时间线

年份 事件
1930s 斯金纳箱实验
1950 图灵提出奖惩机制设想
1957 Minsky提出强化学习概念
1985 Sutton&Barto发展TD-Learning
1989 Watkins提出Q-Learning
2013 DeepMind提出DQN
2016 AlphaGo击败李世石
2022 ChatGPT使用RLHF
2025 DeepSeek-R1用RL训练推理
2025 Sutton&Barto获图灵奖

参考资料

  • 《Reinforcement Learning: An Introduction》- Sutton & Barto(经典教材)
  • AlphaGo论文:Silver et al., 2016
  • DeepSeek-R1技术报告:DeepSeek, 2025
  • InstructGPT论文:OpenAI, 2022
  • DPO论文:Rafailov et al., 2023

下一篇预告:RAG入门------让大模型学会开卷考试

相关推荐
minxihou2 小时前
DeepSeek Anthropic 端点协议转换缺陷分析:为什么它在 Claude Code 上表现不佳
ai
哥布林学者11 小时前
深度学习进阶(十五)通道注意力 SE
机器学习·ai
一切皆是因缘际会12 小时前
AI数字分身的底层原理:破解意识、自我与人格复刻的核心难题
大数据·人工智能·ai·架构
翔云12345612 小时前
vLLM全解析:定义、用途与竞品对比
人工智能·ai·大模型
Huang26010812 小时前
GLM API 介绍 - Ace Data Cloud
ai
Java小白中的菜鸟13 小时前
obsidian安装claude报错:Claude Code native binary not found
ai
不懂的浪漫15 小时前
把 AI Skill 做成系统:路由、领域技能、自我复盘和进化飞轮
人工智能·ai·skill
AI进化营-智能译站17 小时前
ROS2 C++开发系列12-用多态与虚函数构建可扩展的ROS2机器人行为模块
开发语言·c++·ai·机器人
运维开发王义杰17 小时前
告别发文繁琐,专注价值表达:Blogger-Agent 让知识积累产生复利
ai·agent