预训练语言模型PLM(课程笔记)

一:分为两种范式

  1. Feature-based

预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。

代表:word2vec,ELMO

  1. Fine-tuning

在下游任务时对模型参数进行更新

代表:BERT,GPT
二:GPT模型与BERT对比

1.模型结构

GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。

2.预训练方式

GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。

BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。

3.存在的问题

BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比

整体趋势,模型越来越大,大力出奇迹。

GPT:Fine-tuning

GPT2:Zero-Shot Learning

GPT3:Few-Shot Learning,但不更新参数

相关推荐
AI街潜水的八角14 小时前
基于Opencv的条形码识别与创建
人工智能·opencv·计算机视觉
谁怕平生太急14 小时前
Mobile GUI Agent相关学习资料整理
人工智能·大模型
牛奶14 小时前
2026 春涧·前端走向全栈
前端·人工智能·全栈
DeepVis Research14 小时前
【AGI/Simulation】2026年度通用人工智能图灵测试与高频博弈仿真基准索引 (Benchmark Index)
大数据·人工智能·算法·数据集·量化交易
Linux猿14 小时前
2025数字消费发展报告 | 附PDF
人工智能·研报精选
这张生成的图像能检测吗15 小时前
(论文速读)CCASeg:基于卷积交叉注意的语义分割多尺度上下文解码
人工智能·深度学习·计算机视觉·语义分割
亦复何言??15 小时前
机器人强化学习入门笔记(四)
笔记·机器人
大猪宝宝学AI17 小时前
【AI Infra】BF-PP:广度优先流水线并行
人工智能·性能优化·大模型·模型训练
Jerryhut17 小时前
Opencv总结7——全景图像拼接
人工智能·opencv·计算机视觉
今天也好累17 小时前
C语言安全格式化:snprintf核心指南
c语言·笔记·学习·visual studio