vllm的部署和使用

conda create -n cosyvoice python=3.10.9 cudnn=9.1.1.17 nvidia/label/cuda-12.1.1::cuda-toolkit ffmpeg x264

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

pip install vllm==0.6.6

pip install transformers==4.46 modelscope==1.20.1

qwen2.5模型下载

from modelscope import snapshot_download

Downloading model checkpoint to a local dir model_dir

model_dir = snapshot_download('Qwen/Qwen2.5-0.5B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-7B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-32B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-72B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-1.5B-Instruct')

相关推荐
张忠琳11 小时前
【vllm】vLLM v1 Core — 系统级架构深度分析(四)
ai·架构·vllm
张忠琳12 小时前
【vllm】 vLLM v1 Engine — 系统级架构深度分析(三)
ai·架构·vllm
张忠琳12 小时前
【vllm】vLLM v1 Worker — 系统级架构深度分析(二)
ai·架构·vllm
张忠琳14 小时前
【vllm】vLLM v1 Executor — 系统级架构深度分析(五)
ai·架构·vllm
nix.gnehc1 天前
大模型全流程入门解析——从理论基础到推理落地
llm·推理·vllm·sglang
Only you, only you!1 天前
Openclaw本地部署,开启养龙虾模式
人工智能·vllm·gent
cooldream20091 天前
vLLM 大规模推理部署全攻略-以Qwen3-8B为例
vllm·qwen3
运维 小白3 天前
2. vLLM多机单卡+open claw部署
运维·ai·vllm
kimi-2223 天前
vLLM 引擎(vLLM Engine)的所有配置参数
vllm
竹之却4 天前
【Agent-阿程】AI先锋杯·14天征文挑战第14期-第9天-大模型服务端高效部署与vLLM实战
人工智能·vllm