预训练语言模型PLM(课程笔记)

一:分为两种范式

  1. Feature-based

预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。

代表:word2vec,ELMO

  1. Fine-tuning

在下游任务时对模型参数进行更新

代表:BERT,GPT
二:GPT模型与BERT对比

1.模型结构

GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。

2.预训练方式

GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。

BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。

3.存在的问题

BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比

整体趋势,模型越来越大,大力出奇迹。

GPT:Fine-tuning

GPT2:Zero-Shot Learning

GPT3:Few-Shot Learning,但不更新参数

相关推荐
ytttr87322 分钟前
MATLAB实现经验模态分解(EMD)与希尔伯特变换获取能量谱
人工智能·python·matlab
AI浩24 分钟前
MHAF-YOLO:用于精确目标检测的多分支异构辅助融合YOLO
人工智能·yolo·目标检测
YangYang9YangYan27 分钟前
高职大数据技术专业学习与发展指南
大数据·人工智能·学习·数据分析
lybugproducer28 分钟前
深度学习专题:模型训练的数据并行(二)
人工智能·深度学习·神经网络
学無芷境31 分钟前
Large-Scale 3D Medical Image Pre-training with Geometric Context Priors
人工智能·3d
大模型服务器厂商32 分钟前
适配的 GPU 服务器能让 AI 模型充分发挥算力优势
人工智能
go_bai35 分钟前
Linux--进程池
linux·c++·经验分享·笔记·学习方法
AscendKing38 分钟前
LandPPT - AI驱动的PPT生成平台
人工智能·好好学电脑·hhxdn.com
QT 小鲜肉38 分钟前
【QT/C++】Qt网络编程进阶:UDP通信和HTTP请求的基本原理和实际应用(超详细)
c语言·网络·c++·笔记·qt·http·udp
FreeCode40 分钟前
LangChain1.0智能体开发:流输出组件
人工智能·langchain·agent