基于昇腾MindSpeed训练加速库玩转智谱GLM-4-0414模型

智谱GLM-4-0414模型提供32B和9B两种参数规模,涵盖基础、推理和沉思等多种模型类型,均基于 MIT 许可协议开放。其中,推理模型 GLM-Z1-32B-0414 性能卓越,与 DeepSeek-R1 等领先模型相当,实测推理速度达每秒200个Tokens。此前,魔乐社区已推出支持昇思MindSpore和昇腾MindIE的版本。如今,昇腾MindSpeed训练加速库开箱即用的版本也已上线,共包含6个模型,欢迎开发者们下载体验!

🔗魔乐社区模型下载链接:

https://modelers.cn/models/Models_Ecosystem/GLM-Z1-Rumination-32B-0414

https://modelers.cn/models/Models_Ecosystem/GLM-Z1-9B-0414

https://modelers.cn/models/Models_Ecosystem/GLM-Z1-32B-0414

https://modelers.cn/models/Models_Ecosystem/GLM-4-9B-0414

https://modelers.cn/models/Models_Ecosystem/GLM-4-32B-Base-0414

https://modelers.cn/models/Models_Ecosystem/GLM-4-32B-0414

不多说,直接进入实践环节。接下来,我们将基于昇腾MindSpeed训练加速库部署 GLM-Z1-9B-0414 模型,并进行训练和推理操作。

NO.1 环境配置

1.1 硬件要求

GLM-Z1-9B-0414的参考硬件配置如下, 本文将以A2 单机8卡训练和推理为例进行介绍:

|--------|--------|-----------------|
| 类型 | 硬件 | 配置 |
| 全参训练 | NPU | 8 x Ascend NPUs |

1.2 MindSpeed-LLM仓库部署

MindSpeed-LLM的主要依赖配套如下表,安装步骤参考安装指导:

https://gitee.com/ascend/MindSpeed-LLM/blob/master/docs/features/install_guide.md

|----------------------------------------|---------|
| 依赖软件 | 版本 |
| CANN Toolkit(开发套件) | 商发版本 |
| CANN Kernel(算子包) | 商发版本 |
| CANN NNAL(Ascend Transformer Boost加速库) | 商发版本 |
| Python | >=3.10 |
| PyTorch | 2.5.1 |
| torch_npu插件 | 2.5.1 |
| apex | 商发版本 |

仓库拉取

复制代码
git clone https://gitee.com/ascend/MindSpeed-LLM.gitgit clone https://github.com/NVIDIA/Megatron-LM.gitcd Megatron-LMgit checkout core_r0.8.0cp -r megatron ../MindSpeed-LLM/cd ..cd MindSpeed-LLMmkdir logsmkdir datasetmkdir ckpt

环境搭建​​​​​​​

复制代码
# python3.10conda create -n test python=3.10conda activate test # 安装 torch 和 torch_npu,注意要选择对应python版本、x86或arm的torch、torch_npu及apex包pip install torch-2.5.1-cp310-cp310m-manylinux2014_aarch64.whlpip install torch_npu-2.5.1*-cp310-cp310m-linux_aarch64.whl # apex for Ascend 参考 https://gitee.com/ascend/apex# 建议从原仓编译安装 # 安装加速库git clone https://gitee.com/ascend/MindSpeed.gitcd MindSpeed# checkout commit from MindSpeed core_r0.8.0git checkout 2c085cc9pip install -r requirements.txtpip3 install -e .cd ../MindSpeed-LLM  # 安装其余依赖库pip install -r requirements.txt

NO.2 权重/数据准备

2.1 权重转换

权重下载

从魔乐社区或者HuggingFace下载权重和配置文件。

魔乐下载链接(享国内加速下载):https://modelers.cn/models/zhipuai/GLM-Z1-9B-0414

权重转换

MindSpeed-LLM提供脚本将权重转换为mcore权重,用于训练、推理、评估等任务:

https://gitee.com/lliilil/MindSpeed-LLM/blob/master/tests/0day/glm-z1-9b-0414/ckpt_convert_glm4_z1_9b_0414_hf2mcore.sh

使用方法如下,请根据实际需要的TP/PP等切分策略和权重路径修改权重转换脚本。​​​​​​​

复制代码
cd MindSpeed-LLMbash tests/0day/glm-z1-9b-0414/ckpt_convert_glm4_z1_9b_0414_hf2mcore.sh

2.2 数据预处理

MindSpeed-LLM提供脚本进行数据集处理:

https://gitee.com/lliilil/MindSpeed-LLM/blob/master/tests/0day/glm-z1-9b-0414/data_convert_glm4_z1_9b_0414_pretrain.sh

使用方法如下,请根据实际需要修改以下参数​​​​​​​

复制代码
cd MindSpeed-LLMbash tests/0day/glm-z1-9b-0414/data_convert_glm4_z1_9b_0414_pretrain.sh

|--------------------------|-----------------|
| 参数名 | 含义 |
| --input | 数据集路径 |
| --tokenizer-name-or-path | 模型tokenizer目录 |
| --output-prefix | 数据集处理完的输出路径及前缀名 |

NO.3 训练​​​​​​​

复制代码
cd MindSpeed-LLMbash tests/0day/glm-z1-9b-0414/pretrain_glm4_z1_9b_0414_8k_ptd.sh

用户需要根据实际情况修改脚本中以下变量

|----------------|-----------------------------------|
| 变量名 | 含义 |
| MASTER_ADDR | 多机情况下主节点IP |
| NODE_RANK | 多机下,各机对应节点序号0-8 |
| CKPT_SAVE_DIR | 训练中权重保存路径 |
| DATA_PATH | 数据预处理后的数据路径 |
| TOKENIZER_PATH | tokenizer目录 |
| CKPT_LOAD_DIR | 权重转换保存的权重路径,为初始加载的权重,如无初始权重则随机初始化 |

NO.4 推理​​​​​​​

复制代码
cd MindSpeed-LLMbash tests/0day/glm-z1-9b-0414/generate_glm4_z1_9b_0414_ptd.sh

用户需要根据实际情况修改脚本中以下变量

|----------------|-----------------|
| 变量名 | 含义 |
| MASTER_ADDR | 多机情况下主节点IP |
| NODE_RANK | 多机下,各机对应节点序号0-8 |
| CHECKPOINT | 训练保存的权重路径 |
| TOKENIZER_PATH | tokenizer目录 |

NO.5 评估​​​​​​​

复制代码
cd MindSpeed-LLMbash tests/0day/glm-z1-9b-0414/evaluate_glm4_z1_9b_0414_ptd.sh

用户需要根据实际情况修改脚本中以下变量

|----------------|-----------------------------------|
| 变量名 | 含义 |
| MASTER_ADDR | 多机情况下主节点IP |
| NODE_RANK | 多机下,各机对应节点序号0-8 |
| CKPT_SAVE_DIR | 训练中权重保存路径 |
| DATA_PATH | 数据预处理后的数据路径 |
| TOKENIZER_PATH | tokenizer目录 |
| CKPT_LOAD_DIR | 权重转换保存的权重路径,为初始加载的权重,如无初始权重则随机初始化 |

欢迎体验

欢迎大家下载体验GLM-4-0414,也欢迎广大开发者在模型评论区留言交流!

相关推荐
风象南28 分钟前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶1 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶1 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
Kagol4 小时前
🎉OpenTiny NEXT-SDK 重磅发布:四步把你的前端应用变成智能应用!
前端·开源·agent
罗西的思考4 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab4 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab5 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸6 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云6 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8656 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github