SFT和RLHF是什么?有什么区别

简单来说,SFT (有监督微调)和 RLHF(基于人类反馈的强化学习)是大语言模型(LLM)从"只会预测概率"进化为"懂人话、守规矩"的两个关键阶段。

它们属于模型训练中的后训练阶段(Post-training)


1. 它们在哪个环节?

一个成熟的 AI 模型通常经历三个主要阶段:

  1. 预训练(Pre-training): 像"博览群书"。在海量互联网数据上学习预测下一个词,让模型获得知识,但它此时还没学会怎么跟人交流。
  2. SFT(Supervised Fine-tuning): 像"闭门学礼仪"。
  3. RLHF(Reinforcement Learning from Human Feedback): 像"实战演练并接受考官点评"。

2. 详细解读

SFT:有监督微调

这是模型"对齐"人类意图的第一步。

  • 做法: 雇佣专业人员编写大量高质量的"问题-答案"对(Prompt-Response)。例如:
    • 提问: "如何用 Java 写一个单例模式?"
    • 回答: "可以使用双重检查锁定实现......"
  • 目的: 告诉模型,"当人类这样问你时,你应该这样回答"。通过这个阶段,模型学会了对话的格式和指令的执行。

RLHF:基于人类反馈的强化学习

这是让模型回答更符合人类价值观(更有用、更真实、无害)的关键,分为三小步:

  1. 收集偏好: 让模型针对同一个问题生成几个不同的回答,让人类来"打分"或"排序"(比如 A 比 B 好)。
  2. 训练奖励模型(Reward Model): 用这些评分数据训练一个"小老师"模型,专门学习人类的喜好。
  3. 强化学习(PPO 等算法): 让大模型不断生成回答,"小老师"打分。模型为了拿高分,会不断调整参数,直到其回答越来越接近人类满意的标准。

3. 核心区别对比

特性 SFT (有监督微调) RLHF (强化学习)
数据形式 标准的问答对(Q & A) 多个回复的排序/打分
主要作用 学会指令跟随,建立基础能力 消除幻觉、提高安全性、优化细节表现
类比 老师给出一份标准答案让你背诵 老师根据你的表现打分,让你自我悟出规律

总结: SFT 给模型定调子,RLHF 给模型拔上限。没有 SFT,模型不知道怎么说话;没有 RLHF,模型说话可能带有偏见或不够严谨。

相关推荐
梦梦代码精31 分钟前
从工程视角拆解 BuildingAI:一个企业级开源智能体平台的架构设计与实现
人工智能·gitee·开源·github
supericeice32 分钟前
复杂项目管理如何用好大模型:RAG、知识图谱与AI编排的落地框架
人工智能·知识图谱
AI机器学习算法6 小时前
深度学习模型演进:6个里程碑式CNN架构
人工智能·深度学习·cnn·大模型·ai学习路线
Ztopcloud极拓云视角6 小时前
从 OpenRouter 数据看中美 AI 调用量反转:统计口径、模型路由与多云应对方案
人工智能·阿里云·大模型·token·中美ai
AI医影跨模态组学6 小时前
如何将深度学习MTSR与膀胱癌ITGB8/TGF-β/WNT机制建立关联,并进一步解释其与患者预后及肿瘤侵袭、免疫抑制的生物学联系
人工智能·深度学习·论文·医学影像
搬砖的前端7 小时前
AI编辑器开源主模型搭配本地模型辅助对标GPT5.2/GPT5.4/Claude4.6(前端开发专属)
人工智能·开源·claude·mcp·trae·qwen3.6·ops4.6
Python私教7 小时前
Hermes Agent 安全加固与生态扩展:2026-04-23 更新解析
人工智能
饼干哥哥7 小时前
Kimi K2.6 干成了Claude Design国产版,一句话生成电影级的动态品牌网站
人工智能
肖有米XTKF86467 小时前
带货者精品优选模式系统的平台解析
人工智能·信息可视化·团队开发·csdn开发云
天天进步20157 小时前
打破沙盒限制:OpenWork 如何通过权限模型实现安全的系统级调用?
人工智能·安全