ChatGLM3-6B独立部署提供HTTP服务failed to open nvrtc-builtins64_121.dll

背景

我在本地windoes部署ChatGLM3-bB,且希望部署后能提供HTTP server的能力。

模型部署且启动是成功了,但是在访问生成接口**/v1/chat/completions**时报错failed to open nvrtc-builtins64_121.dll。

问题详细描述

找不到nvrtc-builtins64_121.dll

RuntimeError: nvrtc: error: failed to open nvrtc-builtins64_121.dll.

Make sure that nvrtc-builtins64_121.dll is installed correctly.

bash 复制代码
  File "D:\ProgramData\Miniconda3\envs\chatglm\Lib\site-packages\torch\nn\modules\module.py", line 1511, in _wrapped_call_impl
    return self._call_impl(*args, **kwargs)
           ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "D:\ProgramData\Miniconda3\envs\chatglm\Lib\site-packages\torch\nn\modules\module.py", line 1520, in _call_impl
    return forward_call(*args, **kwargs)
           ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "C:\Users\Administrator\.cache\huggingface\modules\transformers_modules\chatglm3-6b\modeling_chatglm.py", line 408, in forward
    query_layer = apply_rotary_pos_emb(query_layer, rotary_pos_emb)
                  ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
RuntimeError: The following operation failed in the TorchScript interpreter.
Traceback of TorchScript (most recent call last):
RuntimeError: nvrtc: error: failed to open nvrtc-builtins64_121.dll.
  Make sure that nvrtc-builtins64_121.dll is installed correctly.

github上也有人报了这个问题

解决方案

原因:pytorch和cuda版本不匹配导致的

pytorch安装时,对应的CUDA12.1

但我本地之前安装的是CUDA12.4

因此找不到12.1版本的nvrtc-builtins64_121

方案:安装多版本CUDA,再安装一个CUDA12.1

相关推荐
极限实验室14 分钟前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
杨过过儿25 分钟前
【学习笔记】4.1 什么是 LLM
人工智能
巴伦是只猫34 分钟前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
大千AI助手42 分钟前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记1 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型
LCG元1 小时前
自动驾驶感知模块的多模态数据融合:时序同步与空间对齐的框架解析
人工智能·机器学习·自动驾驶
why技术1 小时前
Stack Overflow,轰然倒下!
前端·人工智能·后端
超龄超能程序猿2 小时前
(三)PS识别:基于噪声分析PS识别的技术实现
图像处理·人工智能·计算机视觉
要努力啊啊啊2 小时前
YOLOv3-SPP Auto-Anchor 聚类调试指南!
人工智能·深度学习·yolo·目标检测·目标跟踪·数据挖掘