SFT和RLHF是什么?有什么区别

简单来说,SFT (有监督微调)和 RLHF(基于人类反馈的强化学习)是大语言模型(LLM)从"只会预测概率"进化为"懂人话、守规矩"的两个关键阶段。

它们属于模型训练中的后训练阶段(Post-training)


1. 它们在哪个环节?

一个成熟的 AI 模型通常经历三个主要阶段:

  1. 预训练(Pre-training): 像"博览群书"。在海量互联网数据上学习预测下一个词,让模型获得知识,但它此时还没学会怎么跟人交流。
  2. SFT(Supervised Fine-tuning): 像"闭门学礼仪"。
  3. RLHF(Reinforcement Learning from Human Feedback): 像"实战演练并接受考官点评"。

2. 详细解读

SFT:有监督微调

这是模型"对齐"人类意图的第一步。

  • 做法: 雇佣专业人员编写大量高质量的"问题-答案"对(Prompt-Response)。例如:
    • 提问: "如何用 Java 写一个单例模式?"
    • 回答: "可以使用双重检查锁定实现......"
  • 目的: 告诉模型,"当人类这样问你时,你应该这样回答"。通过这个阶段,模型学会了对话的格式和指令的执行。

RLHF:基于人类反馈的强化学习

这是让模型回答更符合人类价值观(更有用、更真实、无害)的关键,分为三小步:

  1. 收集偏好: 让模型针对同一个问题生成几个不同的回答,让人类来"打分"或"排序"(比如 A 比 B 好)。
  2. 训练奖励模型(Reward Model): 用这些评分数据训练一个"小老师"模型,专门学习人类的喜好。
  3. 强化学习(PPO 等算法): 让大模型不断生成回答,"小老师"打分。模型为了拿高分,会不断调整参数,直到其回答越来越接近人类满意的标准。

3. 核心区别对比

特性 SFT (有监督微调) RLHF (强化学习)
数据形式 标准的问答对(Q & A) 多个回复的排序/打分
主要作用 学会指令跟随,建立基础能力 消除幻觉、提高安全性、优化细节表现
类比 老师给出一份标准答案让你背诵 老师根据你的表现打分,让你自我悟出规律

总结: SFT 给模型定调子,RLHF 给模型拔上限。没有 SFT,模型不知道怎么说话;没有 RLHF,模型说话可能带有偏见或不够严谨。

相关推荐
纤纡.2 小时前
OpenCV 实现人脸识别:LBPH/Eigen/Fisher 三大算法实战详解
人工智能·opencv·计算机视觉
铮铭2 小时前
EgoScale: 基于多样化第一人称视角人类数据的灵巧操作规模化
人工智能·机器人·具身智能·vla
木心术12 小时前
OpenClaw网页前端开发与优化全流程指南
前端·人工智能
大嘴皮猴儿2 小时前
跨境电商旺季备战指南:如何用跨马翻译快速完成多国语言大促素材
大数据·人工智能·新媒体运营·自动翻译·教育电商
纤纡.2 小时前
OpenCV 实战:基于 Haar 特征的人脸与微笑检测全解析
人工智能·opencv·计算机视觉
百胜软件@百胜软件2 小时前
百胜软件黄飞出席时尚产业生态圈主题沙龙,分享AI在时尚零售企业的应用实践
人工智能·零售
云边云科技_云网融合2 小时前
基于深度学习的设备监控技术:从被动报警到主动预警的革新
网络·人工智能·云计算
易标AI3 小时前
标书智能体(四)——提示词顺序优化,让缓存命中,输入成本直降10倍
人工智能·python·提示词·智能体·招投标
ai产品老杨3 小时前
异构计算新范式:基于 X86/ARM 的 AI 视频管理平台架构深度解析
arm开发·人工智能·架构