大语言模型(3)--GPT-2

GPT-2(《Language Models are Unsupervised Multitask Learners》)是继GPT-1之后的第二个开源版本(考虑到技术滥用的担心只发布了mini版本),它的训练语料与参数比GPT-1多了一个数量级。正如题目,它是一个无监督、无领域知识调优的模型,然而在阅读理解、摘要生成、翻译、问答等方面可以超过多个领域下调优的已知模型。

模型

GPT-2是一个基于transformer的语言模型,在800万个网页上训练得到,它包含15亿参数。训练语料与参数数量都比GPT-1多了一个数量级。它仍使用GPT-1的模型,在此基础上做了少量调优:

  • layer norm前置到每个block的输入
  • 残差层参数使用层次N进行归一化(1/sqrt(N)
  • 词表扩大到5w+
  • 上下文词的数量从512->1024
  • batch size扩大到512

效果

GPT-2显示了很强的zero-shot能力,它的效果超过了多个基于领域语料(例如wikipedia/news/books等)训练的模型。如下图所示:

下面给出了一些问答的例子:

相关推荐
金井PRATHAMA18 分钟前
认知语义学隐喻理论对人工智能自然语言处理中深层语义分析的赋能与挑战
人工智能·自然语言处理·知识图谱
J_Xiong011723 分钟前
【VLMs篇】07:Open-Qwen2VL:在学术资源上对完全开放的多模态大语言模型进行计算高效的预训练
人工智能·语言模型·自然语言处理
老兵发新帖38 分钟前
LlamaFactory能做哪些?
人工智能
2202_7567496939 分钟前
LLM大模型-大模型微调(常见微调方法、LoRA原理与实战、LLaMA-Factory工具部署与训练、模型量化QLoRA)
人工智能·深度学习·llama
人有一心1 小时前
深度学习中显性特征组合的网络结构crossNet
人工智能·深度学习
机器之心1 小时前
用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
人工智能·openai
苏苏susuus1 小时前
NLP:Transformer之self-attention(特别分享3)
人工智能·自然语言处理·transformer
猫天意1 小时前
【目标检测】metrice_curve和loss_curve对比图可视化
人工智能·深度学习·目标检测·计算机视觉·cv
山烛2 小时前
OpenCV:图像透视变换
人工智能·opencv·计算机视觉·图像透视变换