OpenAI隆重推出开源大模型:GPT-OSS

2025年8月5日,OpenAI 在 GitHub 同步发布了其最新开源项目 ------ GPT‑OSS。这是自 2019 年 GPT‑2 以来,OpenAI 首次公布具备完整参数的语言模型。

项目地址为: https://github.com/openai/gpt-oss

本次发布包含两个版本:

  • gpt‑oss‑120b:1200 亿参数,支持单张 80GB GPU 运算;

  • gpt‑oss‑20b:200 亿参数,可在消费级设备(16GB 内存以上)本地运行。

模型名称 层数 总参数量 每个令牌的活跃参数 总专家数 每个令牌的活跃专家数 上下文长度
GPT-OSS-120B 36 1170亿 51亿 128 4 12.8万
GPT-OSS-20B 24 210亿 36亿 32 4 12.8万

🧠 模型定位

OpenAI 将 GPT‑OSS 定义为 "开放权重推理模型"(open-weight reasoning models),强调以下特性:

  • 支持链式推理(Chain-of-Thought)

  • 可在本地离线运行

  • 可进行微调(fine-tuning),但不包含原始训练数据

  • 不提供训练代码,因此不属于完全开源

模型使用 Apache 2.0 许可证发布,允许商用。


📊 性能表现

根据 OpenAI 提供的内部评估数据:

  • gpt‑oss‑120b 在推理、编程、数学任务中表现与 o4‑mini 接近;

  • gpt‑oss‑20b 表现与 o3‑mini 接近,适用于中小规模部署。

Gpt-oss-120b 在竞赛编程 (Codeforces)、通用问题解决 (MMLU 和 HLE) 以及工具调用 (TauBench) 方面表现优于 OpenAI o3‑mini,并与 OpenAI o4-mini 持平或超越其性能。此外,它在健康相关查询 (HealthBench⁠) 和竞赛数学 (AIME 2024 和 2025) 方面表现得比 o4-mini 更好。尽管 gpt-oss-20b 的规模较小,但在这些相同的评估中,它与 OpenAI o3‑mini 持平或超越后者,甚至在竞赛数学和医疗方面表现得更好


📌 行业背景

当前,Meta(LLaMA)、Mistral、DeepSeek 等公司持续推进开源语言模型,OpenAI 长期坚持闭源政策。此次发布被业内视为其策略上的重要转向,有望在开源生态与产业实践之间寻求更平衡的发展路径。

相关推荐
LeeZhao@1 小时前
【具身智能】具身机器人VLA算法入门及实战(一):具身智能系统及VLA
人工智能·docker·语言模型·机器人
sight-ai3 小时前
超越基础:SightAI 智能路由与多模型选择实战
人工智能·开源·大模型·api
武子康4 小时前
AI-调查研究-104-具身智能 从模型训练到机器人部署:ONNX、TensorRT、Triton全流程推理优化详解
人工智能·gpt·ai·性能优化·机器人·tensorflow·具身智能
weixin_446260854 小时前
探索libsignal:为Signal提供强大加密保障的开源库
开源
MasonYyp4 小时前
简单使用Marker
python·语言模型
人机与认知实验室4 小时前
触摸大语言模型的边界
人工智能·深度学习·机器学习·语言模型·自然语言处理
西西弗Sisyphus4 小时前
一个基于稀疏混合专家模型(Sparse Mixture of Experts, Sparse MoE) 的 Transformer 语言模型
语言模型·transformer·moe
lll上5 小时前
三步对接gpt-5-pro!地表强AI模型实测
人工智能·gpt
喜欢吃豆5 小时前
一份关于语言模型对齐的技术论述:从基于PPO的RLHF到直接偏好优化
人工智能·语言模型·自然语言处理·大模型·强化学习
sanshizhang6 小时前
word文档转pdf开源免费,可自定义水印
pdf·开源·word