一:分为两种范式
- Feature-based
预训练的模型参数(word-enbeddings)作为下游任务的输入,不更新预训练参数。
代表:word2vec,ELMO
- Fine-tuning
在下游任务时对模型参数进行更新
代表:BERT,GPT
二:GPT模型与BERT对比1.模型结构
GPT是第一个基于transformer架构的PLM,使用的是transformer的Decoder;而Bert使用的是transformer的Encoder,相比于GPT结构更简单。
2.预训练方式
GPT:自回归语言模型预训练(预测下一个词),单向的,更适合生成式任务。
BERT:掩码语言模型(MLM)和下一句预测(NSP),双向的,更适合文本理解的任务。
3.存在的问题
BERT用了MLM,pre-training和fine-tuning不能统一起来,且训练效率比较低。
三:GPT,GPT2,GPT3对比整体趋势,模型越来越大,大力出奇迹。
GPT:Fine-tuning
GPT2:Zero-Shot Learning
GPT3:Few-Shot Learning,但不更新参数
预训练语言模型PLM(课程笔记)
好难怎么办2024-08-26 9:45
相关推荐
agicall.com1 天前
座机通话双方语音分离技术解决方案详解AI机器学习算法1 天前
《动手学深度学习PyTorch版》笔记贺一航【Niki】1 天前
【学习笔记】杂乱知识Goboy1 天前
「我的第一次移动端 AI 办公」TRAE SOLO 三端联动, 通勤路上就把活干了,这设计,老罗看了都想当场退役qq_452396231 天前
第二十篇:《UI自动化测试的未来:AI驱动的智能测试与低代码平台》视觉&物联智能1 天前
【杂谈】-人工智能风险文化对组织决策的深远影响β添砖java1 天前
深度学习(12)Kaggle房价竞赛冬奇Lab1 天前
RAG 系列(十):混合检索——让召回更全面冬奇Lab1 天前
一天一个开源项目(第95篇):Claude for Financial Services - Anthropic 官方金融行业 AI 代理套件つ安静与叛逆的小籹人1 天前
小红书API:通过笔记ID获取笔记详情数据教程