大模型-模型预训练-预训练任务

一、简介

1、预训练任务目的

设计合适的自监督训练任务,使得模型能够从海量五标注数据中学习到广泛的语义知识与世界知识

2、常见预训练任务
  • 语言建模
  • 去噪自编码
  • 混合去噪器

二、语言建模

1、特点
  • 被目前绝大多数模型采用
  • 核心在于预测下一个词元
  • 经常被用于训练基于解码器架构的大模型
  • 是一种多任务学习过程,可同时学习到生成时用到的相关知识与能力
2、任务内容

基于前序内容生成或预测后续内容

3、变种
  • 前缀语言建模
    • 特点:主要应用与采用前缀解码器架构的大模型
    • 缺点:由于总损失仅计算后缀词元,性能稍逊于使用标准语言建模任务进行预训练的模型
  • 中间任务填充
    • 任务内容:训练模型对于中间部分文本的预测生成能力
    • 特点:
      • 常用于作为标准语言建模任务的辅助任务
      • 通常用于训练代码预训练模型,提升模型代码补全能力
4、应用情况
  • 应用范围:被绝大部分大模型采用
  • 代表模型:GPT

三、去噪自编码

1、特点
  • 实现比语言建模复杂,需要设定额外的优化策略,如词元替换策略、替换片段长度、替换词元比例
2、任务内容

输入文本经过一系列替换或删除,形成损坏文本,模型任务目标是根据损坏文本恢复出被替换或删除的片段

3、应用情况
  • 应用范围:比语言建模应用少
  • 代表模型:BERT、T5等模型

四、混合去噪器

1、任务内容

又称UL2损失,通过将语言建模和去噪自编码的目标均视为不同的去噪任务,对于预训练任务进行了统一建模

2、组成
  • S-去噪器
  • R-去噪器
  • X-去噪器
3、特点
  • S-去噪器与前缀语言建模目标相同
  • R-去噪器、X-去噪器与去噪自编码目标相似,二者在被掩盖(删除)片段的跨度以及损坏比例上有区别,R-去噪器掩盖比例约为15%,每个被掩盖片段包含3-5个词元;X-去噪器掩盖比例约为50%,每个被掩盖片段包含12个词元以上
4、如何选择去噪器

在句子开头设置特定词元(比如R、X、S)标记去噪器类型

5、应用情况
  • 应用范围:较小
  • 代表模型:UL2、PaLM2等
相关推荐
Jurio.43 分钟前
【JPCS出版】第二届应用统计、建模与先进算法国际学术会议(ASMA2024,9月27日-29)
大数据·人工智能·深度学习·算法·机器学习·数学建模
sp_fyf_20241 小时前
[杂谈-黑神话:悟空] 中国3A游戏的崛起之路:挑战与机遇并存
人工智能·游戏·语言模型
清流君1 小时前
【自动驾驶】控制算法(八)横向控制Ⅳ | 调试与优化——让车辆行驶更平稳!
人工智能·笔记·算法·自动驾驶·控制算法
杳戢1 小时前
技术美术百人计划 | 《4.1 Bloom算法》笔记
人工智能·笔记·深度学习·计算机视觉·unity·图形渲染·技术美术
Mr_Happy_Li2 小时前
网络模型的保存与读取
人工智能·python·深度学习·神经网络·计算机视觉·网络模型
子午2 小时前
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别
人工智能·python·深度学习
fxybg20222 小时前
2024AI做PPT软件如何重塑演示文稿的创作
人工智能·ai·自然语言处理·powerpoint·机器翻译
夸克App2 小时前
共建智能座舱AI应用生态 夸克合作斑马智行开拓AI搜索新场景
人工智能·搜索引擎·车载系统·aigc
garrulousabyss2 小时前
机器学习查漏补缺(4)
人工智能·机器学习
魔力之心2 小时前
人工智能与机器学习原理精解【22】
人工智能·机器学习