一:分为两种范式
- Feature-based
预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。
代表:word2vec,ELMO
- Fine-tuning
在下游任务时对模型参数进行更新
代表:BERT,GPT
二:GPT模型与BERT对比1.模型结构
GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。
2.预训练方式
GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。
BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。
3.存在的问题
BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比整体趋势,模型越来越大,大力出奇迹。
GPT:Fine-tuning
GPT2:Zero-Shot Learning
GPT3:Few-Shot Learning,但不更新参数
预训练语言模型PLM(课程笔记)
好难怎么办2024-08-26 9:45
相关推荐
needn1 天前
TRAE为什么要发布SOLO版本?毅航1 天前
自然语言处理发展史:从规则、统计到深度学习前端付豪1 天前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件ursazoo1 天前
写了一份 7000字指南,让 AI 帮我消化每天的信息流_志哥_1 天前
Superpowers 技术指南:让 AI 编程助手拥有超能力YongGit1 天前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战程序员鱼皮1 天前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了星浩AI1 天前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?树獭非懒1 天前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!阿尔的代码屋1 天前
[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent