国产GPU中,VLLM0.5.0发布Qwen2.5-14B-Instruct-GPTQ-Int8模型,请求返回结果乱码

概述

国产GPU:

DCU Z100

推理框架:

vllm0.5.0

docker容器化部署

运行如下代码:

python -m vllm.entrypoints.openai.api_server --model /app/models/Qwen2.5-14B-Instruct-GPTQ-Int8 --served-model-name qwen-gptq --trust-remote-code --enforce-eager --max-model-len 256 --tensor-parallel-size 2 --dtype float16 --quantization gptq --port 8001 --host *.*.*.*

报:

解决方案

1.重新拉取docker容器

docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:vllm0.5.0-dtk24.04.1-ubuntu20.04-py310-zk-v1

2.运行容器

docker run -it --name=dtk24041_qwen2_vllm -v /app/GLM-4-main:/work --privileged -v /app/models:/app/models -v /opt/hyhal:/opt/hyhal --device=/dev/kfd --device=/dev/dri --device=/dev/mkfd --security-opt seccomp=unconfined --ipc=host --network host --group-add video --ulimit memlock=-1:-1 --cap-add=SYS_PTRACE 023c9d2c0174 /bin/bash

3.进入容器

docker exec -it dtk24041_qwen2_vllm /bin/bash

4.运行

python -m vllm.entrypoints.openai.api_server --model /app/models/Qwen2.5-14B-Instruct-GPTQ-Int8 --served-model-name qwen-gptq --trust-remote-code --enforce-eager --max-model-len 256 --tensor-parallel-size 2 --dtype float16 --quantization gptq --port 8001 --host *.*.*.*

5.调用

curl http://*.*.*.*:8001/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "qwen-gptq","messages": [{"role": "system", "content": "你是一个乐于助人的助手。"},{"role": "user", "content": "讲个笑话"}],"stop": ["<|im_end|>", "<|endoftext|>"]}'

相关推荐
zhongerzixunshi3 分钟前
以技术创新为翼 筑就发展新高度
大数据·人工智能·物联网
LJ97951114 分钟前
媒体发布进入AI时代:如何用智能工具解放你的传播力?
大数据·人工智能
_爱明5 分钟前
查看模型参数量
人工智能·pytorch·python
Deepoch5 分钟前
模块化智能新纪元:Deepoc开发板如何重塑服务机器人产业生态
人工智能·机器人·具身模型·deepoc
. . . . .12 分钟前
ComfyUi
人工智能
WZGL123016 分钟前
从个体需求到整体守护,科技助力老人安全安心
大数据·人工智能·科技·安全·智能家居
智算菩萨17 分钟前
【Python基础】AI的“重复学习”:循环语句(for, while)的奥秘
人工智能·python·学习
FserSuN18 分钟前
AI产品:Google Code Wiki
人工智能
周名彥28 分钟前
### 基于CP++的天元算盘系统“长度-长“定义及工程实现方案
人工智能·去中心化·知识图谱·量子计算·agi
AMiner:AI科研助手28 分钟前
AI如何重新定义研究?以AMiner沉思为例讲透Deep Research
人工智能·glm·智谱·深度调研