GPT的前世今生:从gpt1到chatgpt的能力提升

从2017年google brain提出transformer模型,到2018年基于transformer模型open ai推出了gpt1模型以及google推出了bert模型,到2019-2021年open ai陆续推出gpt2和gpt3,再到2022-2023年推出chat-gpt和gpt4,大语言模型已经发展成了一个具有3个大分支的参天大树[LLM:大语言模型]。在这里主要写写关于gpt的那些事。

GPT-1和GPT-2模型

参考[GPT-1和GPT-2模型详解]

GPT-3

对比

模型 发布时间 参数量 预训练数据量
GPT 2018 年 6 月 1.17 亿 约 5GB
GPT-2 2019 年 2 月 15 亿 40GB
GPT-3 2020 年 5 月 1,750 亿 45TB
相关推荐
文弱_书生1 分钟前
关于模型学习策略
人工智能·深度学习·神经网络
牛客企业服务19 分钟前
2026年AI面试布局:破解规模化招聘的效率困局
人工智能·面试·职场和发展
gorgeous(๑>؂<๑)20 分钟前
【北理工-AAAI26】MODA:首个无人机多光谱目标检测数据集
人工智能·目标检测·计算机视觉·目标跟踪·无人机
嵌入式的飞鱼35 分钟前
SD NAND 焊接避坑指南:LGA-8 封装手工焊接技巧与常见错误
人工智能·stm32·单片机·嵌入式硬件·tf卡
serve the people37 分钟前
tensorflow 零基础吃透:RaggedTensor 与其他张量类型的转换
人工智能·tensorflow·neo4j
serve the people43 分钟前
tensorflow 核心解析:tf.RaggedTensorSpec 作用与参数说明
人工智能·python·tensorflow
yzx9910131 小时前
当AI握住方向盘:智能驾驶如何重新定义出行未来
人工智能
Sui_Network1 小时前
备受期待的 POP 射击游戏 XOCIETY 正式在 Epic Games Store 开启体验
人工智能·游戏·rpc·区块链·量子计算·graphql
漫长的~以后2 小时前
GPT-5.2深度拆解:多档位自适应架构如何重塑AI推理效率
人工智能·gpt·架构
爱笑的眼睛112 小时前
自动机器学习组件的深度解析:超越AutoML框架的底层架构
java·人工智能·python·ai