论文阅读 BERT GPT - transformer在NLP领域的延伸

文章目录

不会写的很详细,只是为了帮助我理解在CV领域transformer的拓展

1 摘要

1.1 BERT - 核心

双向 编码器 加上mask做完形填空超大模型无监督预训练 需要整个模型作为pretrain weight到下游任务做fintune

1.2 GPT - 核心

自回归 解码器 无需训练 只需Prompt

2 模型架构

2.1 概览


3 区别

3.1 finetune和prompt

BERT需要全部参数进行训练

GPT不需要训练即可完成下游任务

3.2 transformer及训练

BERT使用双向的编码器

GPT使用自回归的解码器

总结

总结个毛

相关推荐
来酱何人2 小时前
低资源NLP数据处理:少样本/零样本场景下数据增强与迁移学习结合方案
人工智能·深度学习·分类·nlp·bert
Chunyyyen3 小时前
【第十八周】自然语言处理的学习笔记03
笔记·学习·自然语言处理
jerryinwuhan3 小时前
对图片进行解释的大语言模型
人工智能·语言模型·自然语言处理
DuHz3 小时前
利用汽车雷达测试系统模拟多径效应——论文阅读
论文阅读·汽车·信息与通信·信号处理
万里鹏程转瞬至14 小时前
开源项目分析:wan2.1 VACE 关键设计与实现代码解读
论文阅读·aigc
红苕稀饭66617 小时前
PVC论文阅读
论文阅读
菜鸟‍17 小时前
【论文学习】大语言模型(LLM)论文
论文阅读·人工智能·学习
何如千泷21 小时前
【论文阅读】PathMR: Multimodal Visual Reasoning for Interpretable Pathology Analysis
论文阅读·医学图像分割·病理
闲人编程1 天前
深入浅出Transformer:使用Hugging Face库快速上手NLP
python·深度学习·自然语言处理·nlp·transformer·hugging face·codecapsule
可触的未来,发芽的智生1 天前
触摸未来2025-10-18:生成文字的小宇宙矩阵溯源
人工智能·python·神经网络·程序人生·自然语言处理