大语言模型系列-T5

文章目录


前言

目前已经讲解了目前LLM的三大流派的两个起始模型:GPT-1(Decoder only)、BERT(Encoder only),但是这两个模型针对不同下游不同的NLP任务时还需要进行一定的修改(如添加一些线性层),Google经过庞大的预训练,最终提出了一个通用框架T5模型(Encoder-Decoder), 将所有NLP任务转化为text to text任务,微调时无需再修改模型,直接在原模型上微调即可。

ps:T5最核心的理念是:使用前缀任务声明及文本答案生成,统一所有自然语言处理任务的输入和输出。在此之前的几乎所有预训练语言模型,在下游任务微调过程中都需要添加非线性层,将模型的输出转化为任务指定的输出格式。

下图所示为T5的输入格式和输出格式。绿色部分表示翻译任务,红色和黄色部分分别表示CoLA(单句分类)和STS-B(文本语义相似度)任务,蓝色部分表示摘要生成任务,左侧的框表示T5的输入样例,右侧的框则是对应的输出结果。

T5唯一需要做的就是在输入数据前加上任务声明前缀,如:

  • 英德翻译:translate English to German:That is good.
  • 情感分类:sentiment:This movie is terrible!

提示:以下是本篇文章正文内容,下面内容可供参考

一、T5的网络结构和流程

T5模型和原始的Transformer结构基本一致,具体的做了如下几点改动:

  1. 简化了Layer normalization,其中激活只是重新调整,没有添加附加偏差。
  2. 使用了简化的相对位置embedding,即每个位置对应一个数值而不是向量,原来的Transformer采用sin/cos习得position embeddings,而T5将(key和query)相对位置的数值加在attention softmax之前的logits上,每个head的有自己的position embeddings,所有的层共享一套position embeddings,每一层都计算一次,让模型对位置更加敏感。

二、T5的预训练过程

T5对预训练目标进行了大范围探索,总共从四个层面来进行比较:

  1. 第一个方面,高层次方法(自监督的预训练方法)对比,总共三种方法:

    复制代码
    - Prefix language modeling,从左到右顺序预测
    - BERT-style 式(Masked LM),就是像BERT一样将一部分给破坏掉,然后还原出来,其效果最好
    - Deshuffling(顺序还原)式,就是将文本打乱,然后还原出来


    结论:发现 BERT-style 式预训练方法最好,因此下一个开始探索文本破坏策略

  2. 第二方面,对文本一部分进行破坏时的策略,也分三种方法:

    复制代码
    - Masked法,将被破坏token换成特殊字符,如[M]
    - Replace spans法,把Mask 法中相邻 [M] 都合成了一个特殊符,每一小段替换一个特殊符,提高计算效率,其效果最好
    - Drop法,没有替换操作,直接随机丢弃一些字符

    结论:Replace Spans 法胜出,因此下一个开始探索文本破坏的百分比

  3. 第三方面,探索对文本进行多大程度的破坏,挑了 4 个值:10%,15%,25%,50%,最后发现还是BERT的15%效果最好

  4. 第四方面,Replace Spans需要决定对大概多长的小段进行破坏,于是对不同长度进行探索:2,3,5,10这四个值,最后发现Span length=3时的效果最好

此时就获得了完整的 T5 模型及其训练方法:

  • Transformer Encoder-Decoder 模型;
  • BERT-style 式的文本破坏方法;
  • Replace Spans 的文本破坏策略;
  • 15 %的文本破坏比;
  • Replace Spans破坏时小段长度为3。

三、其他训练结论

  1. 网络结构(Architectures)

    复制代码
    - 原始的Transformer结构表现最好
    - encoder-decoder结构和BERT、GPT的计算量差不多
    - 共享encoder和decoder的参数没有使效果差太多
  2. 无监督目标(Unsupervised objectives)

    复制代码
    - 自编码(encoder-decoder)和自回归(decoder)的效果差不多
    - 推荐选择更短目标序列的目标函数,提高计算效率
  3. 数据集(Datasets)

    复制代码
    - 在领域内进行无监督训练可以提升一些任务的效果,但在一个小领域数据上重复训练会降低效果
    - Large、diverse的数据集效果最好
  4. 训练策略(Training strategies)

    复制代码
    - 精调时更新所有参数 > 更新部分参数
    - 在多个任务上预训练之后微调 = 无监督预训练
  5. 模型缩放(Scaling)

    复制代码
    - 在小模型上训练更多数据 < 用少量步数训练更大的模型
    - 从一个预训练模型上微调多个模型后集成 < 分开预训练+微调后集成

总结

Google利用其庞大资源,给其他研究者带来了LLM领域新的研究方向和思路。

相关推荐
微学AI5 分钟前
融合注意力机制和BiGRU的电力领域发电量预测项目研究,并给出相关代码
人工智能·深度学习·自然语言处理·注意力机制·bigru
知来者逆16 分钟前
计算机视觉——速度与精度的完美结合的实时目标检测算法RF-DETR详解
图像处理·人工智能·深度学习·算法·目标检测·计算机视觉·rf-detr
一勺汤19 分钟前
YOLOv11改进-双Backbone架构:利用双backbone提高yolo11目标检测的精度
人工智能·yolo·双backbone·double backbone·yolo11 backbone·yolo 双backbone
武汉唯众智创21 分钟前
高职人工智能技术应用专业(计算机视觉方向)实训室解决方案
人工智能·计算机视觉·人工智能实训室·计算机视觉实训室·人工智能计算机视觉实训室
Johny_Zhao32 分钟前
MySQL 高可用集群搭建部署
linux·人工智能·mysql·信息安全·云计算·shell·yum源·系统运维·itsm
一只可爱的小猴子42 分钟前
2022李宏毅老师机器学习课程笔记
人工智能·笔记·机器学习
地瓜机器人1 小时前
乐聚机器人与地瓜机器人达成战略合作,联合发布Aelos Embodied具身智能
人工智能·机器人
带娃的IT创业者1 小时前
《AI大模型趣味实战》基于RAG向量数据库的知识库AI问答助手设计与实现
数据库·人工智能
__Benco1 小时前
OpenHarmony - 小型系统内核(LiteOS-A)(十),魔法键使用方法,用户态异常信息说明
人工智能·harmonyos
小杨4041 小时前
python入门系列二十(peewee)
人工智能·python·pycharm