大语言模型(3)--GPT-2

GPT-2(《Language Models are Unsupervised Multitask Learners》)是继GPT-1之后的第二个开源版本(考虑到技术滥用的担心只发布了mini版本),它的训练语料与参数比GPT-1多了一个数量级。正如题目,它是一个无监督、无领域知识调优的模型,然而在阅读理解、摘要生成、翻译、问答等方面可以超过多个领域下调优的已知模型。

模型

GPT-2是一个基于transformer的语言模型,在800万个网页上训练得到,它包含15亿参数。训练语料与参数数量都比GPT-1多了一个数量级。它仍使用GPT-1的模型,在此基础上做了少量调优:

  • layer norm前置到每个block的输入
  • 残差层参数使用层次N进行归一化(1/sqrt(N)
  • 词表扩大到5w+
  • 上下文词的数量从512->1024
  • batch size扩大到512

效果

GPT-2显示了很强的zero-shot能力,它的效果超过了多个基于领域语料(例如wikipedia/news/books等)训练的模型。如下图所示:

下面给出了一些问答的例子:

相关推荐
程序员X小鹿1 分钟前
国产NotebookLM+Nano Banana Pro来了!3个免费入口一键生成PPT+音频(附保姆级教程)
aigc
千匠网络4 分钟前
S2B供应链平台:优化资源配置,推动产业升级
大数据·人工智能·产品运营·供应链·s2b
JERRY. LIU16 分钟前
大脑各组织类型及其电磁特性
人工智能·神经网络·计算机视觉
l木本I31 分钟前
uv 技术详解
人工智能·python·深度学习·机器学习·uv
通义灵码37 分钟前
在 IDEA 里用 AI 写完两个 Java 全栈功能,花了 7 分钟
人工智能·ai编程·qoder
AI营销快线41 分钟前
AI如何每日自动生成大量高质量营销素材?
大数据·人工智能
元智启43 分钟前
企业 AI 智能体:零代码落地指南与多场景实操案例
人工智能
xiaoxiaoxiaolll1 小时前
智能计算模拟:第一性原理+分子动力学+机器学习
人工智能·机器学习
OpenCSG1 小时前
现代 AI 代理设计:17 种架构的系统化实战合集
人工智能·架构
AKAMAI1 小时前
BlackstoneOne 实现业务十倍增长
人工智能·云计算