GPT的前世今生:从gpt1到chatgpt的能力提升

从2017年google brain提出transformer模型,到2018年基于transformer模型open ai推出了gpt1模型以及google推出了bert模型,到2019-2021年open ai陆续推出gpt2和gpt3,再到2022-2023年推出chat-gpt和gpt4,大语言模型已经发展成了一个具有3个大分支的参天大树[LLM:大语言模型]。在这里主要写写关于gpt的那些事。

GPT-1和GPT-2模型

参考[GPT-1和GPT-2模型详解]

GPT-3

对比

模型 发布时间 参数量 预训练数据量
GPT 2018 年 6 月 1.17 亿 约 5GB
GPT-2 2019 年 2 月 15 亿 40GB
GPT-3 2020 年 5 月 1,750 亿 45TB
相关推荐
许泽宇的技术分享5 分钟前
从 Semantic Kernel 到 Agent Framework:微软 AI 开发框架的进化之路
人工智能·microsoft
孟祥_成都22 分钟前
打包票!前端和小白一定明白的人工智能基础概念!
前端·人工智能
幂律智能31 分钟前
能源企业合同管理数智化转型解决方案
大数据·人工智能·能源
Arctic.acc34 分钟前
Datawhale:吴恩达Post-training of LLMs,学习打卡5
人工智能
小毅&Nora1 小时前
【微服务】【Nacos 3】 ② 深度解析:AI模块介绍
人工智能·微服务·云原生·架构
Dev7z1 小时前
基于图像处理与数据分析的智能答题卡识别与阅卷系统设计与实现
图像处理·人工智能·数据分析
GoldenSpider.AI1 小时前
跨越地球的计算:StarCloud如何将AI数据中心送入太空,掀起下一代能源革命
人工智能·能源·starcloud·nvidia h100·philip johnston·ai创业公司
檐下翻书1731 小时前
流程图配色与美化:让你的图表会“说话”
论文阅读·人工智能·信息可视化·流程图·论文笔记
时序之心1 小时前
时序论文速递:覆盖损失函数优化、模型架构创新、理论基础与表征学习、应用场景与隐私保护等方向(11.10-11.14)
人工智能·损失函数·时间序列·表征学习·时序论文
IT_陈寒2 小时前
Vue3性能优化实战:我从这5个技巧中获得了40%的渲染提升
前端·人工智能·后端