【论文笔记】GPT,GPT-2,GPT-3

参考:GPT,GPT-2,GPT-3【论文精读】


GPT

Transformer的解码器,仅已知"过去",推导"未来"

论文地址:Improving Language Understanding by Generative Pre-Training

半监督学习:无标签数据集预训练模型,有标签数据集 微调


BERT

Transformer的编码器,完形填空,已知 "过去" 和 "未来",推导中间值

论文地址:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding



GPT-2

zero-ont - 探索 模型泛化能力;兼容 下游任务 的无障碍使用;

论文地址:Language Models are Unsupervised Multitask Learners


GPT-3

引入 prompt,提升 GPT-2 的有效性;

论文地址:language models are few-shot learners



写在最后:若本文章对您有帮助,请点个赞啦 ٩(๑•̀ω•́๑)۶

相关推荐
qq_416276425 小时前
SuperYOLO:多模态遥感图像中的超分辨率辅助目标检测之论文阅读
论文阅读·人工智能·目标检测
21级的乐未央6 小时前
论文阅读(四):Agglomerative Transformer for Human-Object Interaction Detection
论文阅读·深度学习·计算机视觉·transformer
电脑小白技术7 小时前
安装win11硬盘分区MBR还是GPT_装win11系统分区及安装教程
gpt·mbr·win11选择mbr还是gpt·安装win11硬盘分区
Ayakanoinu12 小时前
【论文阅读】BEVFormer
论文阅读
一点.点12 小时前
FASIONAD:自适应反馈的类人自动驾驶中快速和慢速思维融合系统——论文阅读
论文阅读·语言模型·自动驾驶
满怀101512 小时前
【生成式AI文本生成实战】从GPT原理到企业级应用开发
人工智能·gpt
远瞻。15 小时前
【论文阅读】人脸修复(face restoration ) 不同先验代表算法整理2
论文阅读·算法
暖季啊1 天前
分割一切(SAM) 论文阅读:Segment Anything
论文阅读·人工智能·神经网络
远瞻。1 天前
【论文阅读】人脸修复(face restoration ) 不同先验代表算法整理
论文阅读·算法
Ayakanoinu1 天前
【论文阅读】针对BEV感知的攻击
论文阅读