无监督的预训练和有监督任务的微调

无监督的预训练和有监督任务的微调",结合自回归模型(GPT 基于自回归架构 )

一、无监督预训练例子

无监督预训练是让模型在大量无标注文本上学习语言规律,像从海量网页文本、书籍语料里 "自学" 。

1. 文本续写学习

比如互联网上有无数公开的故事片段,像 "在一个宁静的小镇,午后的阳光透过斑驳的树叶,洒在________" ,模型在预训练时,会基于前面 "在一个宁静的小镇,午后的阳光透过斑驳的树叶,洒在" 这些内容,学习预测后面该接什么合理文字,可能是 "古老的青石板路上" 这类表述,通过海量类似文本,掌握如何依据前文逻辑、语义延续内容,这就是利用自回归方式(从左到右利用上文预测下文 )在无监督场景学习。

2. 语法与语义知识习得

假设有大量新闻文本,如 "人工智能技术近年来发展迅猛,它在________、________等领域展现出巨大潜力" ,模型接触多了,会知道后面可能填 "医疗诊断""自动驾驶" 这类常和人工智能搭配、符合语义与逻辑的领域词汇,逐步掌握语言的语法规则、语义关联,构建起对语言模式的理解,这些知识都是在无标注(无监督 )的预训练阶段积累的。

二、有监督任务微调例子

有监督微调是用标注好的数据集,让模型在特定任务上更精准,常见的有文本分类、问答等任务 。

1. 情感分类任务微调
  • 场景:要让 GPT 能判断电影评论是 "积极" 还是 "消极" 。
  • 数据准备:收集一批标注好的评论,比如 "这部电影剧情紧凑,演员演技精湛,太好看了!------ 积极""电影特效廉价,故事逻辑混乱,很差劲 ------ 消极" 。
  • 微调过程:把这些带标签的样本输入模型,模型用预训练学到的语言基础,聚焦学习 "什么样的文本表述对应积极 / 消极情感" ,调整自身参数。微调后,再遇到新评论 "影片配乐动人,情节跌宕,值得推荐" ,就能更准确分类为 "积极" ,这就是在有监督(有情感标签 )下,基于预训练能力做特定任务优化。
2. 问答任务微调
  • 场景:让模型能回答历史知识类问题,像 "秦始皇统一六国的时间是?" 。
  • 数据准备:整理大量问答对,如 "问题:秦始皇统一六国的时间是?答案:公元前 221 年""问题:赤壁之战的交战双方是?答案:孙刘联军与曹军" 。
  • 微调过程:模型利用预训练时学会的语言理解、知识存储能力,在这些标注数据上 "打磨" ,学习如何从问题里提取关键信息,关联到正确答案。微调后,面对用户提问 "谁领导了美国独立战争?" ,就能更精准输出 "华盛顿" 这类答案,实现特定问答任务的能力提升。

简单说,无监督预训练是让模型 "广泛读书学语言" ,有监督微调是 "带着明确任务做专项练习" ,二者结合让 GPT 既懂通用语言规律,又能在具体任务上表现出色,而自回归的预测方式(基于前文生成下文 )贯穿预训练等过程,是 GPT 工作的基础逻辑之一 。

相关推荐
jndingxin1 小时前
OpenCV CUDA模块设备层-----高效地计算两个 uint 类型值的带权重平均值
人工智能·opencv·计算机视觉
Sweet锦1 小时前
零基础保姆级本地化部署文心大模型4.5开源系列
人工智能·语言模型·文心一言
hie988942 小时前
MATLAB锂离子电池伪二维(P2D)模型实现
人工智能·算法·matlab
晨同学03272 小时前
opencv的颜色通道问题 & rgb & bgr
人工智能·opencv·计算机视觉
蓝婷儿2 小时前
Python 机器学习核心入门与实战进阶 Day 3 - 决策树 & 随机森林模型实战
人工智能·python·机器学习
大千AI助手2 小时前
PageRank:互联网的马尔可夫链平衡态
人工智能·机器学习·贝叶斯·mc·pagerank·条件概率·马尔科夫链
小和尚同志3 小时前
Cline | Cline + Grok3 免费 AI 编程新体验
人工智能·aigc
我就是全世界3 小时前
TensorRT-LLM:大模型推理加速的核心技术与实践优势
人工智能·机器学习·性能优化·大模型·tensorrt-llm
.30-06Springfield3 小时前
决策树(Decision tree)算法详解(ID3、C4.5、CART)
人工智能·python·算法·决策树·机器学习
我不是哆啦A梦3 小时前
破解风电运维“百模大战”困局,机械版ChatGPT诞生?
运维·人工智能·python·算法·chatgpt