glm-4.7-flash本地部署

本地环境情况:

GPU:4090(48GB)* 2

RAM:512GB

使用docker运行多个模型实例,目标为了显存的复用

使用的镜像

vllm/vllm-openai:nightly

运行命令:

nginx 复制代码
docker run -d --name glm-4.7-flash-vllm \
  --gpus '"device=0,1"' \
  -v /home/ls/.cache/modelscope/hub/models/ZhipuAI/GLM-4.7-Flash:/app/models \
  --ipc=host \
  -p 8003:8000 \
  vllm/vllm-openai:nightly \
  --model /app/models \
  --tensor-parallel-size 2 \
  --gpu-memory-utilization 0.95 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser glm47 \
  --reasoning-parser glm45 \
  --enable-auto-tool-choice \
  --max-model-len=32768 \
  --max_num_seqs=8 \
  --served-model-name glm-4.7-flash

不出意外肯定要报错了:

(APIServer pid=1) You can update Transformers with the command pip install --upgrade transformers. If this does not work, and the checkpoint is very new, then there may not be a release version that supports this model yet. In this case, you can get the most up-to-date code by installing Transformers from source with the command pip install git+https://github.com/huggingface/transformers.git [type=value_error, input_value=ArgsKwargs((), {'model': ...rocessor_plugin': None}), input_type=ArgsKwargs]

(APIServer pid=1) For further information visit https://errors.pydantic.dev/2.12/v/value_error

意思是:nightly预览版里面的transformers的版本还是太低了。。。

升级transformers版本
  1. 构建本地docker镜像
nginx 复制代码
mkdir -p ~/vllm-glm47 && cd ~/vllm-glm47

cat > Dockerfile << 'EOF'
FROM vllm/vllm-openai:nightly

RUN pip install --upgrade transformers accelerate -q

ENTRYPOINT ["python3", "-m", "vllm.entrypoints.openai.api_server"]
EOF

docker build -t vllm-glm47:latest .
  1. 运行命令改成:
nginx 复制代码
docker run -d --name glm-4.7-flash-vllm \
  --gpus '"device=0,1"' \
  -v /home/ls/.cache/modelscope/hub/models/ZhipuAI/GLM-4.7-Flash:/app/models \
  --ipc=host \
  -p 8003:8000 \
  vllm-glm47:latest \
  --model /app/models \
  --tensor-parallel-size 2 \
  --gpu-memory-utilization 0.95 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser glm47 \
  --reasoning-parser glm45 \
  --enable-auto-tool-choice \
  --max-model-len=32768 \
  --max_num_seqs=8 \
  --served-model-name glm-4.7-flash
  1. 当然如果想在docker bash升级测试也可以
nginx 复制代码
# 0. 进入bash环境
docker run -it --rm \
  --gpus '"device=1"' \
  -v /home/ls/.cache/modelscope/hub/models/ZhipuAI/GLM-4.7-Flash:/app/models \
  --ipc=host \
  -p 8003:8000 \
  --entrypoint /bin/bash \
  vllm/vllm-openai:nightly



# 1. 升级依赖
pip install --upgrade transformers accelerate

# 2. 验证版本
python -c "import transformers; print(transformers.__version__)"

# 3. 手动启动服务
python -m vllm.entrypoints.openai.api_server \
  --model /app/models \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser glm47 \
  --reasoning-parser glm45 \
  --enable-auto-tool-choice \
  --max-model-len=32768 \
  --max_num_seqs=8 \
  --served-model-name glm-4.7-flash

如果运行爆显存

调整相关参数:--max-model-len=32768、--max_num_seqs=8

相关推荐
实在智能RPA1 小时前
实在 Agent 如何处理企业非标准化流程?:深度拆解执行级 AI 的落地路径
人工智能·ai
第十个灵魂1 小时前
OpenClaw多智能体最优配置指南,告别改配置文件
ai·多智能体·智能体·agents·openclaw
GJGCY1 小时前
企业级AI智能体落地技术评测:执行层、安全治理与平台化架构解析
人工智能·经验分享·安全·ai·智能体·数字员工
程序员大辉1 小时前
LuxTTS 完整入门指南:150倍实时速度的开源声音克隆工具,1GB显存即可运行
ai·语言模型·开源·语音识别
深藏功yu名2 小时前
Day25:RAG检索+重排序保姆级入门!
人工智能·ai·pycharm·agent·rag·rerank
研究点啥好呢2 小时前
3月26日Github热榜推荐 | AI代理工具链专栏
人工智能·驱动开发·python·ai
做萤石二次开发的哈哈2 小时前
萤石开放平台×OpenClaw: 玩手机检测及实时告警技能包发布
网络·人工智能·ai·智能体
ん贤2 小时前
AI 大模型落地系列|Eino 组件核心篇:文档进入 RAG 之前,Loader 和 Parser 到底各管什么
人工智能·ai·golang·eino
安全渗透Hacker2 小时前
阿里云百炼 + VS Code + Kilo 完整实战教程
人工智能·阿里云·ai·云计算·ai编程
Rick19932 小时前
RAG和Agent是什么?
ai·agent