三种预训练模型架构GPT、BERT、T5

目录

一、预训练模型

1、概述

2、分类

二、GPT

1、模型结构

[1.1、输入嵌入层(Text & Position Embedding)](#1.1、输入嵌入层(Text & Position Embedding))

1.2、解码器

1.3、输出层

2、预训练

3、微调

三、BERT

1、模型结构

1.1、输入表示层

1.2、编码器

1.3、输出层

2、预训练

3、微调

四、T5

1、预训练

2、微调

一、预训练模型

1、概述

早期的自然语言处理需为每个任务单独训练模型,严重依赖人工标注数据,存在两大局限:语言知

识难以复用导致训练成本高;专业领域标注数据获取困难。为此研究者提出"预训练+微调"范式:

先在大规模未标注语料上学习通用语言规律,再通过少量标注数据适配具体任务。

2、分类

预训练语言模型多基于Transformer架构,因其相比传统RNN具有并行计算效率高、长距离建模能

力强、结构灵活通用、易于扩展迁移等优势。

根据使用方式,Transformer预训练模型分为三类:

  1. 解码器模型:仅用解码器,代表为GPT(OpenAI,2018.6)。

  2. 编码器模型:仅用编码器,代表为BERT(Google,2018.10)。

  3. 编码器-解码器模型:同时使用编码器和解码器,代表为T5(Google,2019.10)。

二、GPT

GPT(Generative Pre-trained Transformer)是首个系统提出"预训练+微调"范式的语言模型。其核

心是通过大规模无监督语料进行生成式(有mask机制)预训练------根据左侧上下文预测下一个

词,学习语言的通用规律;再通过微调适配具体下游任务。

1、模型结构

1.1、输入嵌入层(Text & Position Embedding)

1.2、解码器

1.3、输出层

GPT模型根据任务类型接入不同的任务头:

  1. 文本预测头(Text Prediction) :输出词表大小的概率分布(经Softmax获得),用于下一个词生成,预训练阶段使用。

  2. 任务分类器头(Task Classifier) :提取特定位置表示(如最后一个token)对整个文本分类,用于微调阶段适配下游任务(如情感分析、话题识别)。

2、预训练

GPT的预训练采用生成式语言建模 (根据前文预测下一个词),在无监督文本上进行自监督学习,无需人工标注,大幅降低数据成本。

Transformer架构 通过全局自注意力机制 有效建模长距离依赖,同时并行计算特性提升了训练效率,使得大规模语料预训练成为可能。

3、微调

GPT的微调阶段是在预训练基础上,使用有监督数据 对模型进行端到端优化,使其适应具体任务,

实现知识迁移:

  1. 添加任务输出层:在模型顶部引入线性层(Linear Head),将隐藏状态映射为任务标签。

  2. 统一输入格式:将各类下游任务重构为连续的文本序列,适配自回归模型的输入要求。

三、BERT

BERT(Bidirectional Encoder Representations from Transformers)核心在于采用Transformer编

码器 结构,通过双向自注意力机制,在建模每个token时同时整合左右两侧的上下文信息,从而获

得更准确、丰富的语义表示。

1、模型结构

1.1、输入表示层

BERT的每个输入Token表示由以下三部分嵌入相加而成:

  • Token Embedding:词本身的语义表示。

  • Position Embedding:表示Token在序列中的位置,为可学习向量。

  • Segment Embedding:用于区分句子对任务中的两个句子(如NSP任务),分别用可学习的向量表示。

在BERT的输入序列中,还包含两个特殊符号:

  • [CLS] (句首标志):其对应的输出向量常被用作整个输入序列的汇总表示(整句语义向量),特别适用于下游的文本分类任务。

  • [SEP] (分隔符):用于标记句子的结束,通常出现在每个句子的末尾,在句子对任务(如问答、自然语言推断)中用于区分两个句子。

1.2、编码器

和原始Transformer相同

1.3、输出层

根据下游任务类型,BERT接入不同的任务输出头:

  • Token-Level任务 (如命名实体识别):使用每个位置对应的输出表示进行分类。

  • Sequence-Level任务 (如文本分类、句子对分类):使用特殊Token [CLS] 的输出表示(输入时位于序列开头),该向量专门用于汇总整个序列的语义信息。

2、预训练

BERT的预训练包含两个核心任务:

  • 掩码语言模型(MLM) :为实现双向建模,随机遮盖15%的token进行预测。遮盖策略为:80%替换为[MASK],10%替换为随机词,10%保持不变。这使得模型能够融合左右两侧上下文进行预测。

  • 下一句预测(NSP):为理解句间关系,模型需判断第二句是否为第一句的真实后续句。其中50%为正例(相邻句子),50%为反例(随机采样)。

3、微调

在预训练完成后,BERT可通过少量微调适配多种下游任务(如文本分类、句子匹配、问答系统、

序列标注等)。微调时,模型主体结构保持不变,仅在顶部添加一个任务特定的输出层,并使用下

游任务数据对整个模型进行端到端训练。

四、T5

T5(Text-to-Text Transfer Transformer)首次在完整的Transformer编码器-解码器结构上实现预训

练语言模型。其核心思想是将所有自然语言处理任务统一表示为"文本到文本"的转换问题。即无论

任务是文本分类、问答还是翻译,模型的输入和输出均是自然语言形式的字符串。

1、预训练

T5模型的预训练目标称为Corrupted Span Prediction(破坏跨度预测),具体过程如下:

  1. 随机遮盖 :在输入文本中随机选择若干段**连续片段(span)**进行破坏。

  2. 替换标记 :将每个被遮盖的连续片段替换为一个特殊的哨兵Token (如 <extra_id_0>),而非使用 [MASK]

  3. 生成目标 :模型以编码器-解码器的方式运行,令解码器自回归地生成这些被遮盖的连续片段内容(以哨兵Token分隔)作为输出序列。

2、微调

相关推荐
强化学习与机器人控制仿真2 小时前
Kimodo 入门教程(一)英伟达开源人形机器人动捕数据集训练运动学动作扩散模型
人工智能·神经网络·机器人·强化学习·扩散模型·英伟达·人形机器人
脱脱克克2 小时前
OpenClaw Cron 完全指南:解锁 AI 智能体的定时自动化超能力
人工智能·自动化·openclaw
江城月下2 小时前
从零开始:我在 Mac M1 上搭建离线 AI 知识库的实战记录
人工智能·macos
电商API&Tina2 小时前
item_video-获得淘宝商品视频 API||商品API
java·大数据·服务器·数据库·人工智能·python·mysql
ppppppatrick2 小时前
【深度学习基础篇11】从CT影像到医学报告:用BART实现医学文本生成的工程实践
人工智能·深度学习
此方ls2 小时前
前沿科技二——信息与信号处理核心技术
人工智能·科技·信号处理
志栋智能2 小时前
释放人力,聚焦创新:超自动化巡检的战略意义
大数据·运维·网络·人工智能·安全·自动化
智算菩萨2 小时前
ChatGPT 5.4文献检索实战指南:从入门到精通的学术搜索方法论
论文阅读·人工智能·ai·chatgpt·全文检索
1941s2 小时前
08-智能体开发实战指南(八):UI 集成与生产部署
人工智能·python·langchain