无监督的预训练和有监督任务的微调

无监督的预训练和有监督任务的微调",结合自回归模型(GPT 基于自回归架构 )

一、无监督预训练例子

无监督预训练是让模型在大量无标注文本上学习语言规律,像从海量网页文本、书籍语料里 "自学" 。

1. 文本续写学习

比如互联网上有无数公开的故事片段,像 "在一个宁静的小镇,午后的阳光透过斑驳的树叶,洒在________" ,模型在预训练时,会基于前面 "在一个宁静的小镇,午后的阳光透过斑驳的树叶,洒在" 这些内容,学习预测后面该接什么合理文字,可能是 "古老的青石板路上" 这类表述,通过海量类似文本,掌握如何依据前文逻辑、语义延续内容,这就是利用自回归方式(从左到右利用上文预测下文 )在无监督场景学习。

2. 语法与语义知识习得

假设有大量新闻文本,如 "人工智能技术近年来发展迅猛,它在________、________等领域展现出巨大潜力" ,模型接触多了,会知道后面可能填 "医疗诊断""自动驾驶" 这类常和人工智能搭配、符合语义与逻辑的领域词汇,逐步掌握语言的语法规则、语义关联,构建起对语言模式的理解,这些知识都是在无标注(无监督 )的预训练阶段积累的。

二、有监督任务微调例子

有监督微调是用标注好的数据集,让模型在特定任务上更精准,常见的有文本分类、问答等任务 。

1. 情感分类任务微调
  • 场景:要让 GPT 能判断电影评论是 "积极" 还是 "消极" 。
  • 数据准备:收集一批标注好的评论,比如 "这部电影剧情紧凑,演员演技精湛,太好看了!------ 积极""电影特效廉价,故事逻辑混乱,很差劲 ------ 消极" 。
  • 微调过程:把这些带标签的样本输入模型,模型用预训练学到的语言基础,聚焦学习 "什么样的文本表述对应积极 / 消极情感" ,调整自身参数。微调后,再遇到新评论 "影片配乐动人,情节跌宕,值得推荐" ,就能更准确分类为 "积极" ,这就是在有监督(有情感标签 )下,基于预训练能力做特定任务优化。
2. 问答任务微调
  • 场景:让模型能回答历史知识类问题,像 "秦始皇统一六国的时间是?" 。
  • 数据准备:整理大量问答对,如 "问题:秦始皇统一六国的时间是?答案:公元前 221 年""问题:赤壁之战的交战双方是?答案:孙刘联军与曹军" 。
  • 微调过程:模型利用预训练时学会的语言理解、知识存储能力,在这些标注数据上 "打磨" ,学习如何从问题里提取关键信息,关联到正确答案。微调后,面对用户提问 "谁领导了美国独立战争?" ,就能更精准输出 "华盛顿" 这类答案,实现特定问答任务的能力提升。

简单说,无监督预训练是让模型 "广泛读书学语言" ,有监督微调是 "带着明确任务做专项练习" ,二者结合让 GPT 既懂通用语言规律,又能在具体任务上表现出色,而自回归的预测方式(基于前文生成下文 )贯穿预训练等过程,是 GPT 工作的基础逻辑之一 。

相关推荐
中二病码农不会遇见C++学姐16 小时前
文明6-mod制作-游戏素材AI生成记录
人工智能·游戏
九尾狐ai16 小时前
从九尾狐AI案例拆解企业AI培训的技术实现与降本增效架构
人工智能
2501_9481201516 小时前
基于RFID技术的固定资产管理软件系统的设计与开发
人工智能·区块链
(; ̄ェ ̄)。16 小时前
机器学习入门(十五)集成学习,Bagging,Boosting,Voting,Stacking,随机森林,Adaboost
人工智能·机器学习·集成学习
杀生丸学AI16 小时前
【物理重建】PPISP :辐射场重建中光度变化的物理合理补偿与控制
人工智能·大模型·aigc·三维重建·世界模型·逆渲染
vlln16 小时前
【论文速读】递归语言模型 (Recursive Language Models): 将上下文作为环境的推理范式
人工智能·语言模型·自然语言处理
春日见16 小时前
如何避免代码冲突,拉取分支
linux·人工智能·算法·机器学习·自动驾驶
龙腾AI白云16 小时前
基于Transformer的人工智能模型搭建与fine-tuning
人工智能·数据挖掘
人工智能培训17 小时前
大模型训练数据版权与知识产权问题的解决路径
人工智能·大模型·数字化转型·大模型算法·大模型应用工程师
无垠的广袤17 小时前
【VisionFive 2 Lite 单板计算机】边缘AI视觉应用部署:缺陷检测
linux·人工智能·python·opencv·开发板