OpenAI重新开源!gpt-oss-20b适配昇腾并上线魔乐社区

2025年8月5日,OpenAI发布了两款全新的开源权重语言模型,均为混合专家(MoE)架构,其规模设计可在消费级GPU和云端的多种硬件上高效运行。这些模型采用 Apache 2.0 许可协议,因此可用于蒸馏到其他推理模型中、部署到商业产品里,且无下游使用限制。这两款模型分别是规模较小的 gpt-oss-20b(总参数 210 亿,激活参数 36 亿)和规模较大的 gpt-oss-120b(总参数1170亿,激活参数 51 亿)。此次发布的亮点在于,OpenAI 推出的这两款开源模型在性能和策略上带来了显著变化 ------ 它的性能甚至优于该公司自家的部分API产品。

魔乐社区第一时间完成了 gpt-oss-20b模型的昇腾适配,欢迎广大开发者下载体验!

🔗昇腾适配模型:

https://modelers.cn/models/State_Cloud/gpt-oss-20b-BF16

🔗模型权重:

https://modelers.cn/models/Modelers_Park/gpt-oss-20b

01

模型介绍

gpt-oss-20b:适用于低延迟、本地或特定场景。20B模型在常见基准测试中的结果与OpenAI的o3-mini相当,仅需16GB内存就能在边缘设备上运行。

gpt-oss-120b:适用于需要高推理能力的生产级和通用型场景。120B模型在核心推理基准测试中性能接近OpenAI的o4-mini,且能在单张 80GB GPU 上高效运行。

除此之外,本次开源的两款模型在工具使用、少样本函数调用、思维链推理和HealthBench测试中均表现优异,甚至超过了OpenAI o1和GPT-4o等专有模型。

核心亮点:

**宽松的Apache 2.0许可证:**可自由开发,不受 copyleft 限制及专利风险影响,非常适合实验、定制及商业部署。

**• 可配置的推理投入:**可根据用户的具体用例和延迟需求,轻松调整推理投入(低、中、高)。

**• 完整的思维链:**可完整访问模型的推理过程,从而简化调试并提升输出结果的可信度。

**• 支持微调:**支持参数级微调,可根据您的特定用例对模型进行完全定制。

**• 智能体能力:**具备原生的函数调用、网页浏览、Python 代码执行及结构化输出能力。

**• 原生MXFP4量化:**模型的混合专家(MoE)层采用原生 MXFP4 精度训练,这使得 gpt-oss-120b 可在单张 H100 GPU 上运行,而 gpt-oss-20b 模型仅需 16GB 内存即可运行。

以下为gpt-oss-20B模型在昇腾上的推理步骤。

02

推理

Transformers & Torch

1. 获取MindIE镜像

下载链接:https://www.hiascend.com/developer/ascendhub/detail/af85b724a7e5469ebd7ea13c3439d48f

2. 执行命令

复制代码
sudo docker run -itd \    --net=host \    --name=gpt-oss-20b \    --device=/dev/davinci{0,1,2,3} \    --device=/dev/davinci_manager \    --device=/dev/devmm_svm \    --device=/dev/hisi_hdc \    -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \    -v /usr/local/Ascend/add-ons/:/usr/local/Ascend/add-ons/ \    -v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \    -v /usr/local/sbin/:/usr/local/sbin/ \    -v /var/log/npu/conf/slog/slog.conf:/var/log/npu/conf/slog/slog.conf \    -v /var/log/npu/profiling/:/var/log/npu/profiling \    -v /var/log/npu/dump/:/var/log/npu/dump \    -v /var/log/npu/:/usr/slog \    -v /etc/localtime:/etc/localtime \    -v /your_path/gpt-oss-20b-BF16:/gpt-oss-20b-BF16 \    swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie:2.1.RC1-800I-A2-py311-openeuler24.03-lts /bin/bash

3. 进入容器并安装软件包

复制代码
pip install transformers==4.55.0pip install torch==2.7.1+cpupip installt torch-npu==2.7.1rc1

4. 运行推理脚本

复制代码
from transformers import pipelineimport torchimport torch_npumodel_id = "/gpt-oss-20b-BF16"pipe = pipeline(    "text-generation",    model=model_id,    torch_dtype="auto",    device_map="auto",)messages = [    {"role": "user", "content": "Explain quantum mechanics clearly and concisely."},]outputs = pipe(    messages,    max_new_tokens=256,)print(outputs[0]["generated_text"][-1])

gpt-oss-120b模型正在同步适配调优中,我们将在模型上线后的第一时间通知大家,敬请期待!

若您对 gpt-oss-20b 有任何疑问或建议,欢迎前往模型讨论区留言交流~

相关推荐
多看书少吃饭7 小时前
基于 OpenCV 的眼球识别算法以及青光眼算法识别
人工智能·opencv·计算机视觉
一条数据库8 小时前
南京方言数据集|300小时高质量自然对话音频|专业录音棚采集|方言语音识别模型训练|情感计算研究|方言保护文化遗产数字化|语音情感识别|方言对话系统开发
人工智能·音视频·语音识别
Yingjun Mo8 小时前
1. 统计推断-基于神经网络与Langevin扩散的自适应潜变量建模与优化
人工智能·神经网络·算法·机器学习·概率论
DogDaoDao8 小时前
Docker全解析:从核心概念到2025年AI集成新特性
人工智能·docker·eureka·程序员
深耕AI8 小时前
【PyTorch训练】准确率计算(代码片段拆解)
人工智能·pytorch·python
zskj_zhyl8 小时前
七彩喜智慧养老:用科技温暖晚年,让关爱永不掉线
人工智能·科技·机器人
益莱储中国8 小时前
是德科技 | 关于AI 数据中心时代的光通信的精选问答
人工智能·科技
AI小白的Python之路8 小时前
机器学习-集成学习
人工智能·机器学习·集成学习
小和尚同志8 小时前
10k star!各大 AI 应用系统提示词集合
人工智能·开源·aigc