技术栈
qwen-2.5-32b
JadenOliver
3 小时前
vllm
·
dcu
·
海光
·
z100l
·
qwen-2.5-32b
·
全量微调
基于海光8张Z100L算力服务器,vLLM 部署全量微调过的 qwen2.5-32B大模型。
在客户提供的 8 * Z100L 算力服务器上,部署全量微调过的 qwen2.5-32B 大模型。说明:输出结果的第1列(例如: 37:00.0、3a:00.0) 是 显卡对应的 PCI 设备地址。
我是有底线的