预训练语言模型PLM(课程笔记)

一:分为两种范式

  1. Feature-based

预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。

代表:word2vec,ELMO

  1. Fine-tuning

在下游任务时对模型参数进行更新

代表:BERT,GPT
二:GPT模型与BERT对比

1.模型结构

GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。

2.预训练方式

GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。

BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。

3.存在的问题

BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比

整体趋势,模型越来越大,大力出奇迹。

GPT:Fine-tuning

GPT2:Zero-Shot Learning

GPT3:Few-Shot Learning,但不更新参数

相关推荐
深度之眼12 小时前
【Nature高分思路速递】 物理驱动的机器学习
人工智能·机器学习·pinn
甜辣uu12 小时前
【源码讲解+复现】YOLOv10: Real-Time End-to-End Object Detection
人工智能·yolo·目标检测·nms-free
胖达不服输13 小时前
「日拱一码」105 机器学习原子间势能MLIP
人工智能·机器学习·机器学习原子间势能·mlip
bnsarocket13 小时前
Verilog和FPGA的自学笔记6——计数器(D触发器同步+异步方案)
笔记·fpga开发·verilog·自学·硬件编程
sight-ai14 小时前
超越基础:SightAI 智能路由与多模型选择实战
人工智能·开源·大模型·api
OpenVINO 中文社区14 小时前
端侧AI创新挑战赛正式启动
人工智能
取酒鱼食--【余九】14 小时前
深度学习经典网络解析:ResNet
网络·人工智能·深度学习·神经网络·resnet·卷积神经网络·残差神经网络
搞科研的小刘选手14 小时前
【通信&网络安全主题】第六届计算机通信与网络安全国际学术会议(CCNS 2025)
大数据·人工智能·网络安全·vr·通信工程·网络技术·计算机工程
LK_0714 小时前
【Open3D】Ch.3:顶点法向量估计 | Python
开发语言·笔记·python
li星野14 小时前
打工人日报#20251011
笔记·程序人生·fpga开发·学习方法