论文阅读 BERT GPT - transformer在NLP领域的延伸

文章目录

不会写的很详细,只是为了帮助我理解在CV领域transformer的拓展

1 摘要

1.1 BERT - 核心

双向 编码器 加上mask做完形填空超大模型无监督预训练 需要整个模型作为pretrain weight到下游任务做fintune

1.2 GPT - 核心

自回归 解码器 无需训练 只需Prompt

2 模型架构

2.1 概览


3 区别

3.1 finetune和prompt

BERT需要全部参数进行训练

GPT不需要训练即可完成下游任务

3.2 transformer及训练

BERT使用双向的编码器

GPT使用自回归的解码器

总结

总结个毛

相关推荐
数据艺术家.42 分钟前
【论文笔记】On Generative Agents in Recommendation
论文阅读·论文·推荐系统·论文笔记·推荐算法·llm4rec·agent4rec
EchoL、1 小时前
【论文阅读】SteganoGAN:High Capacity Image Steganography with GANs
论文阅读·人工智能·笔记·算法
汗流浃背了吧,老弟!1 小时前
把 Bert 回炉重铸——基于Bert的生成式任务训练
人工智能·深度学习·bert
红苕稀饭6661 小时前
Deep Audio-Visual Speech Recognition论文阅读
论文阅读
natide2 小时前
词汇/表达差异-7-Alias覆盖率
人工智能·pytorch·python·深度学习·自然语言处理
aitoolhub2 小时前
生成式AI设计:效率提升与创意平衡之道
人工智能·深度学习·自然语言处理·aigc·设计语言
natide3 小时前
词汇/表达差异-8-Token Overlap(词元重叠度)
大数据·人工智能·深度学习·算法·自然语言处理·nlp·知识图谱
闻道且行之3 小时前
NLP 部署实操:Langchain-Chatchat 完整部署教程与踩坑记录
人工智能·自然语言处理·langchain
张一爻3 小时前
BERT + CRF实现的中文 NER模型训练
人工智能·python·bert
阿杰学AI3 小时前
AI核心知识66——大语言模型之Machine Learning (简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·ml·机械学习