Re45:读论文 GPT-1 Improving Language Understanding by Generative Pre-Training

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文全名:Improving Language Understanding by Generative Pre-Training

论文下载地址:https://www.mikecaptain.com/resources/pdf/GPT-1.pdf

本文是2018年OpenAI的工作,是初代GPT的原始论文。

先用无监督数据预训练语言模型(Transformer decoder),再在有监督数据上微调(加一层prediction head,同时优化语言模型和有监督任务的损失函数)

文章目录

  • [1. 简介](#1. 简介)
  • [2. GPT-1](#2. GPT-1)
    • [1. 无监督预训练语言模型](#1. 无监督预训练语言模型)
    • [2. 微调](#2. 微调)
  • [3. 实验](#3. 实验)
    • [1. 数据集](#1. 数据集)
    • [2. 下游任务指标](#2. 下游任务指标)
    • [3. 模型分析](#3. 模型分析)

1. 简介

NLU任务包括textual entailment, question answering, semantic similarity assessment, and document classification等子任务,本文测试了NLI、QA、语义相似度和文本分类4个任务。

有监督数据稀少,本文的解决方案是在语言模型上用海量无标签数据上进行generative pre-training,然后再在特定子任务上discriminative fine-tuning。

(算半监督学习)

普遍的使用无监督方法来学习语言学知识的方法,是构建预训练词嵌入来提升NLP任务的效果,这种做法有两个问题:1. 在学习文本表征中使用什么优化目标对迁移最有效,不知道。至今没有绝对优秀的方法。2. 如何利用文本表征最有效,不知道。

2. GPT-1

1. 无监督预训练语言模型

标准语言模型目标,最大化文本的似然:

( k k k是上下文窗口尺寸,条件概率 P P P,神经网络的参数 Θ \Theta Θ)

本文用多层Transofmer decoder[1](#1)(多头自注意力机制+position-wise前馈神经网络生成target token上的输出分布):

U U U是token, n n n是层数, W e W_e We是token嵌入矩阵, W p W_p Wp是position embedding矩阵

Transformer相比LSTM的优势体验在对长文本的处理上

2. 微调

通过输入(每个任务被转变成不同形式的输入,见figure 1)得到表征,喂进线性输出层来预测 y y y:

新的优化目标:

事实上是将两个优化目标加起来:

3. 实验

1. 数据集

  1. 上游预训练数据:BooksCorpus和1B Word Benchmark
  2. 下游微调数据

2. 下游任务指标

  1. NLI任务的实验结果
  2. QA和常识推理的实验结果
  3. 语义相似度和文本分类的实验结果

3. 模型分析

  1. 层数对微调结果的影响(答案是越多越好)和预训练更新次数对zero-shot表现的影响
    (数值是经规范化后得到的)
  2. ablation study

  1. Generating Wikipedia by Summarizing Long Sequences ↩︎
相关推荐
莱昂纳多迪卡普利奥28 分钟前
LLM学习指南(四)—— 预训练语言模型(PLM)
人工智能·语言模型·自然语言处理
doll ~CJ40 分钟前
Large Language Model(LLM)应用开发学习实践(一)
langchain·llm·ai agent·应用开发·通义千问系列大模型
百***787544 分钟前
一步API+GPT-5.2生产级落地指南:架构设计+高可用+成本控制
开发语言·gpt·架构
二号小明1 小时前
AutoGLM-Phone 9B 端侧智能体:基于 vLLM 与 Docker 的云端部署与 ADB 联调指南
人工智能·计算机视觉·自然语言处理·智能手机
名为沙丁鱼的猫7291 小时前
【万文超详A2A 协议】从个体赋能到群体智能,智能体间的“TCP/IP协议“
人工智能·python·深度学习·机器学习·自然语言处理·nlp
2301_800256111 小时前
全球气候与环境变化考试知识点梳理(2)
自然语言处理
Watermelo6171 小时前
面向大模型开发:在项目中使用 TOON 的实践与流式处理
javascript·数据结构·人工智能·语言模型·自然语言处理·数据挖掘·json
renhongxia11 小时前
数据可视化实战:用AI工具制作专业数据分析图表
人工智能·信息可视化·语言模型·自然语言处理·数据分析·制造
EdisonZhou15 小时前
MAF快速入门(12)主工作流+子工作流
llm·aigc·agent·.net core
gorgeous(๑>؂<๑)17 小时前
【电子科大-李晶晶组-AAAI26】利用专用提示引导泛化视觉 - 语言模型
人工智能·语言模型·自然语言处理