三种预训练模型架构GPT、BERT、T5

目录

一、预训练模型

1、概述

2、分类

二、GPT

1、模型结构

[1.1、输入嵌入层(Text & Position Embedding)](#1.1、输入嵌入层(Text & Position Embedding))

1.2、解码器

1.3、输出层

2、预训练

3、微调

三、BERT

1、模型结构

1.1、输入表示层

1.2、编码器

1.3、输出层

2、预训练

3、微调

四、T5

1、预训练

2、微调

一、预训练模型

1、概述

早期的自然语言处理需为每个任务单独训练模型,严重依赖人工标注数据,存在两大局限:语言知

识难以复用导致训练成本高;专业领域标注数据获取困难。为此研究者提出"预训练+微调"范式:

先在大规模未标注语料上学习通用语言规律,再通过少量标注数据适配具体任务。

2、分类

预训练语言模型多基于Transformer架构,因其相比传统RNN具有并行计算效率高、长距离建模能

力强、结构灵活通用、易于扩展迁移等优势。

根据使用方式,Transformer预训练模型分为三类:

  1. 解码器模型:仅用解码器,代表为GPT(OpenAI,2018.6)。

  2. 编码器模型:仅用编码器,代表为BERT(Google,2018.10)。

  3. 编码器-解码器模型:同时使用编码器和解码器,代表为T5(Google,2019.10)。

二、GPT

GPT(Generative Pre-trained Transformer)是首个系统提出"预训练+微调"范式的语言模型。其核

心是通过大规模无监督语料进行生成式(有mask机制)预训练------根据左侧上下文预测下一个

词,学习语言的通用规律;再通过微调适配具体下游任务。

1、模型结构

1.1、输入嵌入层(Text & Position Embedding)

1.2、解码器

1.3、输出层

GPT模型根据任务类型接入不同的任务头:

  1. 文本预测头(Text Prediction) :输出词表大小的概率分布(经Softmax获得),用于下一个词生成,预训练阶段使用。

  2. 任务分类器头(Task Classifier) :提取特定位置表示(如最后一个token)对整个文本分类,用于微调阶段适配下游任务(如情感分析、话题识别)。

2、预训练

GPT的预训练采用生成式语言建模 (根据前文预测下一个词),在无监督文本上进行自监督学习,无需人工标注,大幅降低数据成本。

Transformer架构 通过全局自注意力机制 有效建模长距离依赖,同时并行计算特性提升了训练效率,使得大规模语料预训练成为可能。

3、微调

GPT的微调阶段是在预训练基础上,使用有监督数据 对模型进行端到端优化,使其适应具体任务,

实现知识迁移:

  1. 添加任务输出层:在模型顶部引入线性层(Linear Head),将隐藏状态映射为任务标签。

  2. 统一输入格式:将各类下游任务重构为连续的文本序列,适配自回归模型的输入要求。

三、BERT

BERT(Bidirectional Encoder Representations from Transformers)核心在于采用Transformer编

码器 结构,通过双向自注意力机制,在建模每个token时同时整合左右两侧的上下文信息,从而获

得更准确、丰富的语义表示。

1、模型结构

1.1、输入表示层

BERT的每个输入Token表示由以下三部分嵌入相加而成:

  • Token Embedding:词本身的语义表示。

  • Position Embedding:表示Token在序列中的位置,为可学习向量。

  • Segment Embedding:用于区分句子对任务中的两个句子(如NSP任务),分别用可学习的向量表示。

在BERT的输入序列中,还包含两个特殊符号:

  • [CLS] (句首标志):其对应的输出向量常被用作整个输入序列的汇总表示(整句语义向量),特别适用于下游的文本分类任务。

  • [SEP] (分隔符):用于标记句子的结束,通常出现在每个句子的末尾,在句子对任务(如问答、自然语言推断)中用于区分两个句子。

1.2、编码器

和原始Transformer相同

1.3、输出层

根据下游任务类型,BERT接入不同的任务输出头:

  • Token-Level任务 (如命名实体识别):使用每个位置对应的输出表示进行分类。

  • Sequence-Level任务 (如文本分类、句子对分类):使用特殊Token [CLS] 的输出表示(输入时位于序列开头),该向量专门用于汇总整个序列的语义信息。

2、预训练

BERT的预训练包含两个核心任务:

  • 掩码语言模型(MLM) :为实现双向建模,随机遮盖15%的token进行预测。遮盖策略为:80%替换为[MASK],10%替换为随机词,10%保持不变。这使得模型能够融合左右两侧上下文进行预测。

  • 下一句预测(NSP):为理解句间关系,模型需判断第二句是否为第一句的真实后续句。其中50%为正例(相邻句子),50%为反例(随机采样)。

3、微调

在预训练完成后,BERT可通过少量微调适配多种下游任务(如文本分类、句子匹配、问答系统、

序列标注等)。微调时,模型主体结构保持不变,仅在顶部添加一个任务特定的输出层,并使用下

游任务数据对整个模型进行端到端训练。

四、T5

T5(Text-to-Text Transfer Transformer)首次在完整的Transformer编码器-解码器结构上实现预训

练语言模型。其核心思想是将所有自然语言处理任务统一表示为"文本到文本"的转换问题。即无论

任务是文本分类、问答还是翻译,模型的输入和输出均是自然语言形式的字符串。

1、预训练

T5模型的预训练目标称为Corrupted Span Prediction(破坏跨度预测),具体过程如下:

  1. 随机遮盖 :在输入文本中随机选择若干段**连续片段(span)**进行破坏。

  2. 替换标记 :将每个被遮盖的连续片段替换为一个特殊的哨兵Token (如 <extra_id_0>),而非使用 [MASK]

  3. 生成目标 :模型以编码器-解码器的方式运行,令解码器自回归地生成这些被遮盖的连续片段内容(以哨兵Token分隔)作为输出序列。

2、微调

相关推荐
jinanwuhuaguo21 小时前
反熵共同体——OpenClaw的宇宙热力学本体论(第十七篇)
大数据·人工智能·安全·架构·kotlin·openclaw
新加坡内哥谈技术21 小时前
OpenAI 在冲刺首次公开募股(IPO)关键阶段所面临的增长放缓与战略分歧问题
人工智能
智慧物业老杨21 小时前
物业数智化转型实战:从单一服务到综合解决方案的技术落地路径
人工智能·算法·ai
tobias.b21 小时前
03安装人工智能基础软件
人工智能
网瘾新之助21 小时前
Claude Code 插件解密
人工智能
水如烟21 小时前
孤能子视角:意识孤能子,从创生到解耦
人工智能
风巽·剑染春水21 小时前
【World Models综述】理解世界还是预测未来?(ACM CS-2025)
人工智能·生成式ai·扩散模型·综述·智能体·世界模型
云烟成雨TD21 小时前
Spring AI Alibaba 1.x 系列【44】多智能体 - 混合模式、监督者(SupervisorAgent)、自定义模式
java·人工智能·spring
Leinwin21 小时前
新上架 | GPT-5.5 已正式登陆 Microsoft Foundry(国际版)
人工智能