预训练语言模型PLM(课程笔记)

一:分为两种范式

  1. Feature-based

预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。

代表:word2vec,ELMO

  1. Fine-tuning

在下游任务时对模型参数进行更新

代表:BERT,GPT
二:GPT模型与BERT对比

1.模型结构

GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。

2.预训练方式

GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。

BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。

3.存在的问题

BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比

整体趋势,模型越来越大,大力出奇迹。

GPT:Fine-tuning

GPT2:Zero-Shot Learning

GPT3:Few-Shot Learning,但不更新参数

相关推荐
IT古董1 分钟前
【漫话机器学习系列】214.停用词(Stop Words)
人工智能·机器学习
Dlrbw8 分钟前
FPGA——DDS信号发生器设计
笔记·fpga开发
zz93810 分钟前
Trae 04.22重磅更新:AI 编程领域的革新者
人工智能
爱编程的鱼16 分钟前
C# 结构(Struct)
开发语言·人工智能·算法·c#
2301_7696244023 分钟前
基于Pytorch的深度学习-第二章
人工智能·pytorch·深度学习
05091526 分钟前
测试基础笔记第十一天
java·数据库·笔记
咨询1871506512728 分钟前
高企复审奖补!2025年合肥市高新技术企业重新认定奖励补贴政策及申报条件
大数据·人工智能·区块链
快乐点吧37 分钟前
【MongoDB + Spark】 技术问题汇总与解决方案笔记
笔记·mongodb·spark
Guheyunyi40 分钟前
智能照明系统:照亮智慧生活的多重价值
大数据·前端·人工智能·物联网·信息可视化·生活
云天徽上1 小时前
【数据可视化-27】全球网络安全威胁数据可视化分析(2015-2024)
人工智能·安全·web安全·机器学习·信息可视化·数据分析