大语言模型系列-GPT-1

文章目录


前言

前文提到的ELMo虽然解决了词嵌入多义词的问题,但存在如下缺点:

  1. 基于RNN的网络结构使得其特征提取能力弱,训练难且时间长
  2. 预训练模型(仅用于特征抽取)和实际下游任务模型仍是分开的、非端到端的

GPT-1基于上述缺点进行了改进。


提示:以下是本篇文章正文内容,下面内容可供参考

一、GPT-1网络结构和流程

网络结构方面,GPT-1使用Transformer Decoder(不包含Encoder-Decoder Attention)代替了BiLSTM

ps:

  • Decoder部分具有自回归性质,即在生成当前输出时,会考虑之前生成的所有输出。这种特性使得GPT能够在生成过程中利用上下文信息,产生连贯且上下文相关的输出。
  • 虽然encoder和decoder都包含自注意力机制,但它们在任务和使用方式上存在区别。Encoder主要用于对输入序列进行编码,而decoder则用于生成序列。因此,自回归性质更强调decoder的任务和属性。

基于GPT-1的NLP任务分为两个阶段:

  1. 第一阶段是在大型文本语料库上进行无监督的预训练。
  2. 第二个阶段是在做下游任务时将模型调整为具有标记数据的判别任务,然后进行有监督的微调。

上图所示一目了然,可以将所有任务抽象成四种情况,所有情况都需要增加起始和结束标记token,随机初始化:

  1. Classification,文本分类,加上起始和结束标记Start和Extract即可。
  2. Entailment,文本蕴含关系,本质是多分类,将前提(premise)和假设(hypothesis)拼接,中间加分隔符,首尾加上起始和结束token。
  3. Similarity,文本相似性,处理类似文本蕴含,不过需要构造两个输入,对应正反两种拼接顺序。模型输出相加送入linear+softmax。
  4. Multiple Choice,问答与常识推理,一个任务包括一个正文 z z z,一个问题 q q q ,多个答案{ a k a_k ak} ,对应多个三元组,每个三元组格式为 < z , q , a k > <z,q,a_k> <z,q,ak>。模型输出送入linear获得标量分,然后多个分数经过softmax变为概率分布。

二、GPT-1的创新点

  1. 使用Transformer架构代替了LSTM架构,能够更好处理长距离依赖、提取特征,且能够并行执行
  2. 针对不同的NLP任务提供了变换结构,可以直接在预训练模型基础上针对不同任务进行微调,使得整个过程变成端到端的。

ps:自GPT-1之后,明确了这种两阶段(预训练+微调)的范式:先通过大量未标注文本训练语言模型,然后在具体任务的标注数据上微调。这种范式可以称作半监督学习。


总结

GPT-1为我们提供了一个基于 Transformer 的可以微调的预训练网络。但是在把 BiLSTM 换成 Transformer 的过程中,有信息丢失。ELMo 的语言模型是双向的,可以融合上下文信息,但GPT-1只能向前看,即只能利用上文信息、不能利用下文信息。

相关推荐
长相忆兮长相忆5 分钟前
【推荐算法】PRM重排模型:Personalized Re-ranking for Recommendation
深度学习·机器学习·推荐算法
没有梦想的咸鱼185-1037-16636 分钟前
【降尺度】基于统计方法与机器学习技术在气候降尺度中的实践应用
人工智能·机器学习·数据分析
skyfengye7 分钟前
DC2T:用于半监督跨站点持续分割的解缠引导整合与一致性训练
人工智能·计算机视觉
九河云14 分钟前
华为云能源行业云边协同:构筑新能源电站智能运维新基座
人工智能·华为云·数字化转型
SkyPhy - 格物智慧17 分钟前
英伟达收购SchedMD深度解析:完成AI基础设施垂直整合的最后一块拼图
人工智能
这张生成的图像能检测吗20 分钟前
(论文速读)RoShuNet:一个轻量级的基于卷积神经网络的可见图像特征提取器
人工智能·深度学习·计算机视觉·语义分割·目标追踪·分类模型
ApiHug22 分钟前
智能采购新革命:真惠采——让工业品采购降本增效双突破
大数据·人工智能
得贤招聘官34 分钟前
告别“感觉选人”:AI重构招聘的效率、精准与体验闭环
人工智能·重构
Jerryhut36 分钟前
Opencv总结2——图像金字塔与轮廓检测
人工智能·opencv·计算机视觉
数字孪生家族37 分钟前
视频+数字孪生技术在隧道智慧综合管控平台中的典型应用
人工智能·视频孪生技术·智慧隧道建设·数字孪生交通·空间智能应用