预训练语言模型PLM(课程笔记)

一:分为两种范式

  1. Feature-based

预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。

代表:word2vec,ELMO

  1. Fine-tuning

在下游任务时对模型参数进行更新

代表:BERT,GPT
二:GPT模型与BERT对比

1.模型结构

GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。

2.预训练方式

GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。

BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。

3.存在的问题

BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比

整体趋势,模型越来越大,大力出奇迹。

GPT:Fine-tuning

GPT2:Zero-Shot Learning

GPT3:Few-Shot Learning,但不更新参数

相关推荐
Blankspace空白12 分钟前
【小白学AI系列】NLP 核心知识点(八)多头自注意力机制
人工智能·自然语言处理
Long_poem15 分钟前
【自学笔记】Spring Boot框架技术基础知识点总览-持续更新
spring boot·笔记·后端
Sodas(填坑中....)20 分钟前
SVM对偶问题
人工智能·机器学习·支持向量机·数据挖掘
forestsea28 分钟前
DeepSeek 提示词:定义、作用、分类与设计原则
人工智能·prompt·deepseek
maxruan36 分钟前
自动驾驶之BEV概述
人工智能·机器学习·自动驾驶·bev
13631676419侯43 分钟前
物联网+人工智能的无限可能
人工智能·物联网
SylviaW0844 分钟前
神经网络八股(三)
人工智能·深度学习·神经网络
zhengyawen6662 小时前
深度学习之图像回归(二)
人工智能·数据挖掘·回归
蜗牛沐雨2 小时前
如何生成美观且内容稳定的PDF文档:从基础到进阶的全方案解析
人工智能·pdf·tensorflow
南风过闲庭2 小时前
操作系统研究
大数据·人工智能·科技·学习·ai·系统架构