通过huggingface的hf download下载的Qwen模型,如何使用用Docker 启动 vLLM 服务

如果是通过 huggingface_hubhf download 下载的 Qwen 模型,只需将本地下载路径映射到 vLLM 容器,即可用 Docker 启动 vLLM 服务,步骤如下:

步骤 1:确认本地 Qwen 模型的路径

假设你通过 hf download 将 Qwen 模型下载到了本地目录(比如 /data/qwen-models/Qwen-7B-Chat),需确保该目录包含模型的所有文件(config.jsonmodel.safetensorstokenizer.model 等)。

步骤 2:用 Docker 启动 vLLM 服务(映射本地模型路径)

执行以下命令(核心是将本地模型目录挂载到容器内):

bash 复制代码
docker run --gpus all --shm-size 1g -p 8000:8000 \
  # 将本地下载的Qwen模型目录映射到容器的/models路径
  -v /data/qwen-models/Qwen-7B-Chat:/models/Qwen-7B-Chat \
  vllm/vllm-openai:latest \
  # 指定容器内的模型路径
  --model /models/Qwen-7B-Chat \
  # Qwen需要加载自定义代码(必须加)
  --trust-remote-code \
  # 暴露给API的模型名称(Dify中要对应)
  --served-model-name qwen-7b-chat \
  # Qwen支持的最大上下文长度
  --max-model-len 8192

关键说明

  1. 路径映射-v 本地路径:容器内路径 是核心,确保 vLLM 能读取到本地下载的模型文件;
  2. --trust-remote-code :Qwen 模型包含自定义代码(如 modeling_qwen.py),必须加此参数才能正常加载;
  3. 端口与API :启动后,OpenAI 兼容 API 地址为 http://你的服务器IP:8000/v1,后续接入 Dify 的方式和之前一致。

验证服务是否正常

执行测试请求,确认 Qwen 模型可调用:

bash 复制代码
curl http://你的服务器IP:8000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen-7b-chat",
    "messages": [{"role": "user", "content": "介绍下你自己"}]
  }'

若返回 Qwen 的回复,则说明服务启动成功。

相关推荐
帅次15 分钟前
系统分析师-微服务系统分析与设计
docker·微服务·zookeeper·容器·kubernetes·etcd·kubelet
loong_XL4 小时前
docker gpu容器镜像环境构建
运维·docker·容器
哥布林学者7 小时前
吴恩达深度学习课程五:自然语言处理 第二周:词嵌入 课后习题与代码实践
深度学习·ai
CoderJia程序员甲7 小时前
GitHub 热榜项目 - 日榜(2026-01-26)
ai·开源·大模型·github·ai教程
badfl7 小时前
AI漫剧技术方案拆解:NanoBanana+Sora视频生成全流程
人工智能·ai·ai作画
AI智能探索者10 小时前
大数据领域数据可视化:打造高效的数据可视化方案
大数据·ai·信息可视化
胡斌附体11 小时前
linux(ubuntu)拉取源码进行docker容器部署
linux·git·ubuntu·docker·node·nvm
猿小羽12 小时前
AI 2.0 时代全栈开发实战:从 Spring AI 到 MLOps 的进阶指南
ai·llm·mlops·rag·vector database·spring ai·prompt engineering
自己的九又四分之三站台12 小时前
9:大模型向量的使用
ai
扑火的小飞蛾12 小时前
RHEL 7 安装 Docker 过程总结
运维·docker·容器