DeepSeek在昇腾上的模型部署 - 常见问题及解决方案

2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持昇腾,用户可在昇腾硬件和MindIE推理引擎上实现高效推理,但在实际操作中,部署流程与常见问题困扰着不少开发者。本文将为你详细阐述昇腾DeepSeek模型部署的常见问题及解决方案。

01 通信错误:Hccl execute failed

问题现象:

日志显示卡(IP地址10.0.3.9)与卡(IP地址10.0.3.17)之间connection fail

查看日志发现出现hccl通信失败相关日志内容:

解决方案:

  1. 问题定位前需要先开启日志生成环境变量:

    算子库&加速库&模型库日志保存路径:/root/atb/log

    CANN日志保存路径:/root/ascend/log/debug/plog

  2. 通过hccn_tool工具进行连通性检测,发现出现链路down,修复链路down的问题后,通信失败问题解决。

02 通信错误:Hccl通信超时

可配置以下环境变量,增大超时等待时间。

03 显存不足:NPU out of memory

问题现象:

在服务化拉起过程中,出现NPU out of memory报错。

解决方案:

适当调高NPU_MEMORY_FRACTION环境变量(默认值为0.8),适当调低mindie-service服务化配置文件config.json中maxSeqLen、maxInputTokenLen、maxPrefillBatchSize、maxPrefillTokens、maxBatchSize等参数。

04 推理卡顿:模型加载时间长,可能达到2H及以上

问题现象:

模型部署过程中,推理前的模型加载时间过长,部分极端情况需要等待>2H。

可能原因:

1)用户场景内存不足导致swap介入;

2)首次加载权重,权重存储硬件的传输速率慢,传统的HDD或低速SSD或网络存储方式存在I/O瓶颈;

3)框架权重加载使用单线程加载;

解决方案:

1)更换NVMe SSD高速存储硬件;

2)使用内存映射文件mmap加载权重,例如:Weights = torch.load("model.bin",mmap=True);

3)使用并行加载的方式,将权重按层或模块拆分为多个文件,可搜索教程

4)减少多线程开销,设置以下环境变量 export OMP_NUM_THREADS=15)预热加载,提前预加载模型权重到内存

05 推理卡顿:纯模型/服务化拉起卡住、停止

问题现象:

如果free -h中的free内存小于权重大小 / 机器数,纯模型拉起会卡死,过一段时间后进程被杀。

根据经验,可以确保一下free_mem >= (权重大小 / 机器数) * 1.3 (该计算方式待验证,但需要确保内存足够)

解决方案: 重启/释放缓存。

推荐使用释放缓存的方式,可以在容器内运行以下指令:

sync; echo 3 > /proc/sys/vm/drop_caches

注意,每次跑完模型,请检查一下机器的host侧内存占用。

06 推理卡顿:首Curl请求卡死

问题现象:

在服务化成功启动后出现首次curl请求发送后,无返回的现象;或者服务化拉起卡死的现象。

可能原因:

多节点的服务化config.json有区别,或是除了需要写本机信息外的环境变量不一样。

1、例如,A、B两个8卡节点的服务化配置文件中,A配置了interNodeTLSEnabled=true,B配置了interNodeTLSEnbal=false。

2、容器A的环境变量中未设置确定性计算相关环境变量,容器B的环境变量中却有确定性计算相关的环境变量。尽管执行推理请求的节点确定性计算相关的环境变量是关闭状态,仍可能影响推理卡住。

复制代码
export  HCCL_DETERMINISTIC=false

所以,请一定要一一核对好每个8卡容器内的环境变量是一样的,服务化的config.json也需是一样的。

07 推理卡顿:大流量下curl请求超时

问题现象:

服务启动后,在大流量下会出现挂死,具体表现为Curl请求超时,Aicore利用率为0:

所有卡利用率为0:

当前识别为重计算触发的问题,可通过修改mindieservice的config文件进行临时规避。

要求maxseqen与maxprefilltoken参数配置为相同大小。

当前识别为重计算触发的问题,可通过修改mindieservice的config文件进行临时规避。

要求maxseqen与maxprefilltoken参数配置为相同大小。

08 配置问题:服务化benchmark初始化失败

需正确配置Ranktable: export RANKTABLEFILE=/Path/To/ranktable[X].json

09 配置问题:Ranktable中的server id和container ip填写

ranktable中的server id和container ip均填写成主机IP,前提是起容器时需要设置成host模式:docker run --network host <image_name>,含义就是容器的ip地址=主机的ip地址,注意容器开放的端口不要和主机冲突。

10 日志采集:纯模型Profiling 采集

当前 MindIE atb-models 中已经内置了 Profiling 采集逻辑,核心代码在 atb-models/examples/run_pa.py 的 PARunner 中。我们可以通过以下环境变量对 Profiling 采集进行控制:

执行采集时,只需要配置环境变量,在modeltest下拉起性能测试,即可获取到 Profiling 数据。若需采集的卡数大于8,则需要在每个节点上同时开启以下环境变量:

开启环境变量后,参照性能测试,指令如下(可自行修改指令):

采集完成后,核心数据解析到$PROFILING_FILEPATH /ASCEND_PROFILER_OUTPUT 路径下。

11 日志采集:通用方法

遇到推理报错时,请打开日志环境变量,收集日志信息。

12 Tokenizer 报错

MindIE 报 XXX 错误,有一定误导性。实际上只要是 transformers 加载 tokenizer 报错,MindIE 会捕获所有错误,直接退出,并且不会显示真正错误原因。通常,transformers 加载 tokenizer 常见错误以及对应排查方法有:

1、词表文件损坏

检查tokenizer.json 文件完整性,V3 和 R1 的词表不一样。 推荐使用由 Unsloth 维护的 bf16 版本

2、transformers / tokenizer 版本不匹配

  • 确认 transformers、tokenizer 版本:查看模型权重路径下的 config.json 中,transformers版本号。注意:不同的原权重由于fp8转bf16时的transformers版本不同,可能会有不同的transformers 配套,请以机器上的deepseek官方权重中的config.json中的transformers版本为准)
  • 若怀疑Tokenizer的问题,可以使用以下Tokenizer 校验方法,创建一个 python 脚本,如果运行成功,则 tokenizer 加载无问题。若报错,请按照上述方法检查。

13 性能问题:推理性能不符合预期

首先,请确保使能AIV,关闭确定性计算。

其次,DeepSeek-R1 官方推荐服务化请求遵循以下配置,以达到预期性能:

  • 将温度设置在0.5-0.7范围内(推荐0.6),以防止出现无休止的重复或不连贯的输出。
  • 避免添加 System Prompt;所有指令应包含在 User Prompt 中。
  • 对于数学问题,建议在提示中加入以下指令:"请逐步推理,并将最终答案放在\boxed{}内。"
  • 在评估模型性能时,建议进行多次测试并取平均结果。
  • 若遇到精度问题,请确保使用openai接口。

此外,DeepSeek-R1系统模型在回答某些问题时倾向于绕过思考模式(即不输出"<think>\n\n</think>"),这可能会影响模型的表现。为了确保模型进行正确的推理,建议强制模型在每次输出的开头使用"<think>\n"。

14 权重路径和权限问题

问题描述:

在服务化拉起过程中出现权重路径不可用或者权重文件夹权限问题。

解决方案:

注意保证权重路径是可用的,执行以下命令修改权限,注意是整个父级目录的权限:

15. 16卡及以上配置推理测试类问题

1、16卡及以上配置推理测试类问题

问题描述:

多节点参与的推理超过两小时不通信会超时,从而服务化报错。

解决方案:

当前版本可以写一个每小时调用健康监控接口的脚本,进行服务化保活。服务化监控探测接口参考MindIE官方文档:健康探针接口-EndPoint管理面接口-服务化接口-MindIE Service开发指南-服务化集成部署-MindIE1.0.0开发文档-昇腾社区

2、权重加载过程中/加载完成后卡死

遇到多节点推理拉起问题可以用一个轻量化的脚本尝试快速定位一下,卡死是否是由于节点间通信算子导致的(以AllReduce为例)。

首先需要在每个节点上(推理容器内)创建三个文件,分别是 hostfile, test_allreduce.sh, test_allreduce.py

如果该指令能成功跑通且有回显,则hccl出现问题的几率较小,可以定位范围缩小到模型加载的问题上(本方法为简易HCCL联通验证,HCCL连通完全校验请使用 hccl test 工具)。

如果该指令在计算过程中卡住,则hccl出现问题的几率较大,可以再容器外再次尝试该验证方法。若在容器外也无法验通,可以按照1.4.1章节对机器进行前置准备,再进行容器外、容器内的连通验证。

如果该指令直接拉起失败,检查脚本是否有写错的地方,如sh脚本中各个参数。

3、Unicode Error

问题描述:

出现UnicodeEncodeError: 'ascii' codec can't encode character \uff5c in position 301:ordinal not in range(128) 报错。

解决方案:

这是因为由于系统在写入或打印日志ASCII编码deepseek的词表失败,导致报错,不影响服务化正常运行。如果需要规避,需要将/usr/local/Ascend/atb-models/atb_llm/runner/model_runner.py的第145行注释掉:

4、Not set valid RANKTABLEFILE报错

问题描述:

在执行服务化benchmark测试时,报错 not set valid RANKTABLEFILE。

解决方案:

需在每台机器上正确配置RANKTABLEFILE文件路径的环境变量:

相关推荐
小杨4041 小时前
python入门系列十四(多进程)
人工智能·python·pycharm
阿坡RPA16 小时前
手搓MCP客户端&服务端:从零到实战极速了解MCP是什么?
人工智能·aigc
用户277844910499316 小时前
借助DeepSeek智能生成测试用例:从提示词到Excel表格的全流程实践
人工智能·python
机器之心16 小时前
刚刚,DeepSeek公布推理时Scaling新论文,R2要来了?
人工智能
算AI18 小时前
人工智能+牙科:临床应用中的几个问题
人工智能·算法
simplify2018 小时前
【译】Anthropic:推理模型的思维链并非总是忠实
llm·deepseek
凯子坚持 c19 小时前
基于飞桨框架3.0本地DeepSeek-R1蒸馏版部署实战
人工智能·paddlepaddle
你觉得20519 小时前
哈尔滨工业大学DeepSeek公开课:探索大模型原理、技术与应用从GPT到DeepSeek|附视频与讲义下载方法
大数据·人工智能·python·gpt·学习·机器学习·aigc
8K超高清19 小时前
中国8K摄像机:科技赋能文化传承新图景
大数据·人工智能·科技·物联网·智能硬件
hyshhhh20 小时前
【算法岗面试题】深度学习中如何防止过拟合?
网络·人工智能·深度学习·神经网络·算法·计算机视觉