CANNBot + DeepSeek-V4 实操:30 分钟生成可达理论性能极限的 MXFP8 Matmul + Add 融合算子

摘要

DeepSeek-V4 在通用编程领域表现惊艳,但当场景转向 NPU Ascend C 融合算子开发------这类高度依赖硬件架构知识和性能调优经验的垂直领域时,它的表现又会如何?本文基于 CANNBot + DeepSeek-V4 ,以大模型场景中广泛采用的 MXFP8 MatMul + Add 场景为例,端到端自动生成了融合算子工程生成并完成了精度、性能测试。核心成果如下:

30 分钟实现算子生成:基于 Ascend 950 平台并采用 DeepSeek-V4,30分钟完成 MXFP8 MatMul + Add 场景的融合算子代码生成。

精度全部达标:20个用例覆盖各类场景,100% 精度通过。

性能收益显著 :相较 MXFP8 MatMul + Add 分离实现的基线,平均加速 24.79% 、最高加速 56.60% ;在典型 shape 场景 Cube 利用率最高达 98.99%,逼近理论性能极限。

1. 引言

MXFP8 (Microscaling FP8 是 OCP Microscaling 规范定义的一种微缩放浮点格式:元素采用 float8_e4m3fn(E4M3),每 32 个连续元素共享一个 float8_e8m0(E8M0)格式的 power-of-two scale。借助 8 bit 共享指数,每个 block 在动态范围上可达到与 BF16 同量级的水平;相比 FP16 / BF16,可将 GEMM 输入的存储开销压缩约 50% 。

MXFP8 已被以 DeepSeek-V4为代表的前沿大模型在训练与推理中大规模采用(并配套了 DeepGEMM 等开源 GEMM 库);在这些场景中,MXFP8 MatMul 加 Add 融合场景------涵盖 Bias-Add、残差连接、LoRA 路径合并等典型组合,是大模型低精度部署中价值最显著的算子优化方向之一。

本文以 MXFP8 MatMul + Add 融合算子为研究对象,在 Ascend 950 平台,基于 CANNBot + DeepSeek-V4 端到端自动生成完整的算子实现,并通过 20 组覆盖小 / 中 / 大三档的典型用例完成验证:精度 20 / 20 全部通过,性能相对基线平均提升 24.79% 、最高提升 56.60%

2. 实测报告

本节以 20 组覆盖小 / 中 / 大三档的真实 shape 为样本,展示 CANNBot + DeepSeek-V4 自动生成的 MXFP8 MatMul-Add 融合算子在昇腾 Ascend 950 平台上的性能与精度实测结果。

2.1 性能

20 组测试用例覆盖如下规模区间,完整性能测试结果见附录 A:

小档(7 组):M、K、N 均在 128 -- 256 区间

中档(6 组):M、K、N 均在 512 -- 1024 区间

大档(7 组):M、K、N 取值至 4096,覆盖代表性 LLM 推理 / 训练规模

总体统计

指标 数值
测试用例总数 20
平均加速比 24.79%
最高加速比 56.60%(L02:M = 4096, K = 1024, N = 4096)
融合算子平均Cube利用率(小档位) 73.26%
融合算子平均Cube利用率(中档位) 84.66%
融合算子平均Cube利用率(大档位) 95.24%

2.2 精度:

指标 数值
测试用例总数 20
通过用例数 20
通过率 100%
绝对误差容忍阈值 (atol) 1e-3
相对误差容忍阈值 (rtol) 1e-3

3. 性能收益分析

3.1 冗余搬运消除

分离实现下,Cube 单元的计算结果需要先写入GM,再由 Vector 单元读取到UB再进行后续计算:

在 Ascend 950 平台,融合算子可采用 L0C → UB 通路,消除了冗余数据搬运:

3.2 CV 流水并行

分离实现下,MatMul 必须完整执行完毕,Add 才能进入计算------Cube 与 Vector 两类计算单元严格串行。

融合算子将 MatMul 与 Add 按照统一的 tile 粒度切分,使 Cube 与 Vector 两侧异步衔接:Cube 完成第 N 个 tile 的 MatMul 后将计算结果搬运至 Vector,并随即开始第 N+1 个 tile 的 MatMul 计算;与此同时,Vector 可同步执行第 N 个 tile的Add运算。Cube 计算与 Vector 计算可以充分并行。

另一方面,基于Ascend 950 的 1 Cube : 2 Vector 硬件配比------可以将一个 Cube 核的计算结果平均分发至两个 Vector 核,充分利用vector核算力并进一步提高CV流水并行程度。

4. CANNBot + DeepSeek-V4 实操开发

4.1 开发过程

CANNBot 是面向 CANN 开发、用于提升工程效率的智能体体系 。它以可复用 Skills 为基础,覆盖 Ascend C 算子开发全流程及 NPU 模型推理端到端优化。详情见:++https://gitcode.com/cann/cannbot-skills++。

本次实操基于 CANNBot 的 ops-direct-invoke 工作流。该工作流支持 OpenCode 与 Claude Code 两种交互前端,初始化命令如下:

复制代码
    git clone https://gitcode.com/cann/cannbot-skills.git   
    cd cannbot-skills/plugins-official/ops-direct-invoke   
    bash init.sh project opencode    # 或 bash init.sh project claude   

进入交互前端后,输入算子规格即可。本次实操使用的需求描述为:
基于 Ascend C 算子直调工作流,开发 mxfp8_matmul_add_fusion_kernel 融合算子:

  • 数学公式:C = MatMul((A * scaleA), (B * scaleB)) + D

  • 数据类型:A/B 为 MXFP8(fp8_e4m3fn),scaleA/scaleB 为 E8M0,D/C 为 FP32

  • 目标平台:Ascend 950

需求由 Architect Subagent 接收并转化为结构化的设计文档,随后 Developer、Reviewer、Tester 等 Subagent 依次承接,直至生成可运行的 Kernel 工程与全套测试报告。整个融合算子的端到端约 30 分钟,开发者仅需在关键节点(设计串讲、代码审查通过)进行确认即可。工作流程如下所示:

生成的融合算子工程目录结构如下:

复制代码
    ops/mxfp8_matmul_add_fusion_kernel/   
    ├── CMakeLists.txt          # 构建配置   
    ├── run.sh                  # 一键执行脚本   
    ├── src/   
    │   └── matmul_fused_swat.cpp    # Host 侧入口   
    ├── include/   
    │   ├── kernel/   
    │   │   └── matmul_kernel_fused.h    # AIC/AIV 融合 Kernel   
    │   ├── epilogue/   
    │   │   └── add_epilogue.h       # Add Epilogue 实现   
    │   ├── tiling/             # Tiling 策略   
    │   ├── block/              # Block 级调度   
    │   ├── tile/               # Tile 级数据搬运   
    │   └── utils/              # 常量与工具函数   
    ├── scripts/   
    │   ├── gen_data.py         # 测试数据生成   
    │   └── verify_result.py    # 精度验证   
    └── common/                 # 公共组件   

4.2 站在 cann-samples 的肩膀上

值得注意的是,本次自动生成的融合算子工程并非从零开始,而是充分吸取了现有的高性能算子编码经验:无论是基础的Tensor API使用,还是 tiling / block / tile 的分层抽象组织,其设计思路均参考了 cann-samples 中 MX 量化矩阵乘的优化最佳实践。

cann-samples 是 CANN(Compute Architecture for Neural Networks)官方维护的实操样例仓库,面向昇腾平台开发者提供从基础到进阶的高性能算子实现样例与体系化调优知识库。其中 ++Samples/2_Performance/matmul_story++ 由浅入深地呈现了从基础 Matmul 到 MX 量化 Matmul 的完整优化链路,并配套提供《MX 量化矩阵乘算子性能优化指南》等深度调优文档,是希望系统掌握昇腾算子高性能编程的开发者值得深入研读的核心参考资料。仓库地址:++https://gitcode.com/cann/cann-samples++。

CANNBot 的工程价值体现在两个层面:一是将原本散落于样例与文档中的高性能编程经验系统化、可复用化,使Agent能够稳定生成高质量的算子工程基线;二是为算子开发者与算法研究者提供可灵活组合与扩展的高性能实现单元,使其能够在已有工程沉淀的基础上快速搭建满足业务需求的定制化算子,将新算子从算法构想到可用版本的开发周期由周级压缩至小时级。

5. 结论与展望

本次实操交付的融合算子在自动化、精度、性能三个维度均达到生产可用标准:

  1. 工程自动化:从自然语言需求到可编译可运行的 Ascend C 工程,CANNBot 全流程覆盖 Host 侧内存管理、Tiling 策略、Cube / Vector 协同 Kernel 与 Epilogue 实现,无需人工介入底层模板代码。

  2. 数值正确性:20 组测试用例全部精度达标。

  3. 性能收益 :相较 MatMul + Add 分离实现的基线,平均加速 24.79% 、最高 56.60% (L02:4096×1024×4096);融合 Kernel 在大档主力 shape 上 Cube 利用率稳定 ≥ 91%(最高 98.99%,L06),逼近硬件理论极限。

展望:

1、泛化融合场景生成能力:当前的算子生成方式是基于cann-samples仓中已有的高性能实现做有限的扩展及开发,仅局限于固定的Matmul + ElementWise 组合场景,不具备泛化融合场景的算子生成能力。下一步将继续扩展融合算子的开发场景,为开发者提供自定义融合算子的代码生成能力。

2、性能调优能力闭环:进一步提升性能调优能力,自动识别 CV 流水匹配度、Tiling 选择空间等瓶颈点,使生成的融合算子在泛化场景更加接近理论性能极限。

附录 A:完整测试结果表格

下表给出 20 组 shape 的完整测试结果。

用例 档位 M K N 单 MatMul (μs) 单 Add (μs) 基线 (μs) 融合 (μs) Cube 利用率 精度 加速比
S01 128 128 128 6.32 2.72 9.05 7.15 73.38% PASS 20.99%
S02 128 256 128 6.94 2.73 9.67 7.92 71.33% PASS 18.13%
S03 256 128 256 5.89 2.76 8.65 7.01 75.61% PASS 18.90%
S04 256 256 256 6.71 2.95 9.66 6.96 75.56% PASS 27.98%
S05 128 256 256 11.11 2.67 13.78 7.39 72.00% PASS 46.33%
S06 256 128 128 6.65 2.90 9.55 7.29 71.73% PASS 23.62%
S07 256 256 128 6.45 2.98 9.43 7.56 73.19% PASS 19.84%
M01 512 512 512 7.98 3.49 11.46 8.65 80.51% PASS 24.52%
M02 512 1024 512 8.68 3.49 12.17 10.42 83.19% PASS 14.38%
M03 1024 512 1024 9.23 6.68 15.91 13.99 87.55% PASS 12.07%
M04 1024 1024 512 9.52 4.44 13.96 11.58 82.71% PASS 17.04%
M05 512 512 1024 8.04 5.04 13.08 10.68 84.28% PASS 18.37%
M06 1024 1024 1024 10.44 6.62 17.06 15.19 89.70% PASS 10.95%
L01 2048 2048 2048 29.95 25.27 55.22 43.59 96.55% PASS 21.06%
L02 4096 1024 4096 55.46 157.73 213.19 92.52 96.52% PASS 56.60%
L03 1024 4096 1024 20.47 6.76 27.23 24.09 91.42% PASS 11.52%
L04 4096 2048 4096 95.47 157.05 252.52 132.35 98.29% PASS 47.59%
L05 2048 512 2048 14.17 21.39 35.56 26.42 92.60% PASS 25.71%
L06 4096 4096 4096 176.56 156.11 332.67 214.98 98.99% PASS 35.38%
L07 2048 1024 2048 19.76 21.71 41.46 31.16 92.34% PASS 24.84%

参考文献

1\] B. Rouhani et al., "Microscaling Data Formats for Deep Learning," arXiv:2310.10537, 2023. ++\[arXiv\]++ ; OCP, "Microscaling Formats (MX) Specification v1.0," Open Compute Project, 2023. ++\[++ ++规范\]++ \[2\] DeepSeek-AI, "DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence," Technical Report, 2025. \[3\] DeepSeek-AI, "DeepGEMM: Clean and Efficient FP8 GEMM Kernels with Fine-Grained Scaling," 2025. ++\[GitHub\]++

相关推荐
学习论之费曼学习法1 小时前
Agent评估与测试:如何确保AI系统的可靠性
人工智能·log4j
萑澈1 小时前
闭源大语言模型参数量测算的法医学方法论与前沿实践
人工智能·语言模型·自然语言处理
Mr数据杨1 小时前
【CanMV K210】AI 视觉 人脸关键点对齐与属性识别
人工智能·硬件开发·canmv k210
java1234_小锋1 小时前
Spring AI 2.0 开发Java Agent智能体 - 结构化输出
java·人工智能·spring
一切皆是因缘际会1 小时前
结构安全革命:下一代 AI 从 “不可控” 到 “绝对可控” 的范式跃迁
人工智能·安全·ai·架构
冬奇Lab1 小时前
RAG 系列(十二):高级分块策略——Parent-Child 与 Contextual Retrieval
人工智能·llm·源码
百胜软件@百胜软件1 小时前
对话益珲丨2026战略重塑:百胜E3C中台不做“记账工具”,要做品牌增长的“合伙人”
人工智能·零售数字化·数智中台·珠宝行业
极欧互联1 小时前
2026素材网站推荐排行 商用/自媒体/影视后期专用
大数据·人工智能·媒体
GOWIN革文品牌咨询1 小时前
机器人企业品牌语言体系怎么搭建:一句话定位、产品逻辑与解决方案表达
人工智能·机器人