无监督的预训练和有监督任务的微调

无监督的预训练和有监督任务的微调",结合自回归模型(GPT 基于自回归架构 )

一、无监督预训练例子

无监督预训练是让模型在大量无标注文本上学习语言规律,像从海量网页文本、书籍语料里 "自学" 。

1. 文本续写学习

比如互联网上有无数公开的故事片段,像 "在一个宁静的小镇,午后的阳光透过斑驳的树叶,洒在________" ,模型在预训练时,会基于前面 "在一个宁静的小镇,午后的阳光透过斑驳的树叶,洒在" 这些内容,学习预测后面该接什么合理文字,可能是 "古老的青石板路上" 这类表述,通过海量类似文本,掌握如何依据前文逻辑、语义延续内容,这就是利用自回归方式(从左到右利用上文预测下文 )在无监督场景学习。

2. 语法与语义知识习得

假设有大量新闻文本,如 "人工智能技术近年来发展迅猛,它在________、________等领域展现出巨大潜力" ,模型接触多了,会知道后面可能填 "医疗诊断""自动驾驶" 这类常和人工智能搭配、符合语义与逻辑的领域词汇,逐步掌握语言的语法规则、语义关联,构建起对语言模式的理解,这些知识都是在无标注(无监督 )的预训练阶段积累的。

二、有监督任务微调例子

有监督微调是用标注好的数据集,让模型在特定任务上更精准,常见的有文本分类、问答等任务 。

1. 情感分类任务微调
  • 场景:要让 GPT 能判断电影评论是 "积极" 还是 "消极" 。
  • 数据准备:收集一批标注好的评论,比如 "这部电影剧情紧凑,演员演技精湛,太好看了!------ 积极""电影特效廉价,故事逻辑混乱,很差劲 ------ 消极" 。
  • 微调过程:把这些带标签的样本输入模型,模型用预训练学到的语言基础,聚焦学习 "什么样的文本表述对应积极 / 消极情感" ,调整自身参数。微调后,再遇到新评论 "影片配乐动人,情节跌宕,值得推荐" ,就能更准确分类为 "积极" ,这就是在有监督(有情感标签 )下,基于预训练能力做特定任务优化。
2. 问答任务微调
  • 场景:让模型能回答历史知识类问题,像 "秦始皇统一六国的时间是?" 。
  • 数据准备:整理大量问答对,如 "问题:秦始皇统一六国的时间是?答案:公元前 221 年""问题:赤壁之战的交战双方是?答案:孙刘联军与曹军" 。
  • 微调过程:模型利用预训练时学会的语言理解、知识存储能力,在这些标注数据上 "打磨" ,学习如何从问题里提取关键信息,关联到正确答案。微调后,面对用户提问 "谁领导了美国独立战争?" ,就能更精准输出 "华盛顿" 这类答案,实现特定问答任务的能力提升。

简单说,无监督预训练是让模型 "广泛读书学语言" ,有监督微调是 "带着明确任务做专项练习" ,二者结合让 GPT 既懂通用语言规律,又能在具体任务上表现出色,而自回归的预测方式(基于前文生成下文 )贯穿预训练等过程,是 GPT 工作的基础逻辑之一 。

相关推荐
强盛小灵通专卖员6 分钟前
DL00291-联邦学习以去中心化锂离子电池健康预测模型完整实现
人工智能·机器学习·深度强化学习·核心期刊·导师·小论文·大论文
Hello123网站15 分钟前
多墨智能-AI一键生成工作文档/流程图/思维导图
人工智能·流程图·ai工具
有Li1 小时前
CLIK-Diffusion:用于牙齿矫正的临床知识感知扩散模型|文献速递-深度学习人工智能医疗图像
人工智能·深度学习·文献·医学生
大唐荣华1 小时前
视觉语言模型(VLA)分类方法体系
人工智能·分类·机器人·具身智能
即兴小索奇1 小时前
AI应用商业化加速落地 2025智能体爆发与端侧创新成增长引擎
人工智能·搜索引擎·ai·商业·ai商业洞察·即兴小索奇
NeilNiu1 小时前
开源AI工具Midscene.js
javascript·人工智能·开源
nju_spy2 小时前
机器学习 - Kaggle项目实践(4)Toxic Comment Classification Challenge 垃圾评论分类问题
人工智能·深度学习·自然语言处理·tf-idf·南京大学·glove词嵌入·双头gru
计算机sci论文精选2 小时前
CVPR 2025 | 具身智能 | HOLODECK:一句话召唤3D世界,智能体的“元宇宙练功房”来了
人工智能·深度学习·机器学习·计算机视觉·机器人·cvpr·具身智能
ezl1fe2 小时前
RAG 每日一技(十八):手写SQL-RAG太累?LangChain的SQL智能体(Agent)前来救驾!
数据库·人工智能·后端
我星期八休息2 小时前
大模型 + 垂直场景:搜索/推荐/营销/客服领域开发新范式与技术实践
大数据·人工智能·python