vllm的部署和使用

conda create -n cosyvoice python=3.10.9 cudnn=9.1.1.17 nvidia/label/cuda-12.1.1::cuda-toolkit ffmpeg x264

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

pip install vllm==0.6.6

pip install transformers==4.46 modelscope==1.20.1

qwen2.5模型下载

from modelscope import snapshot_download

Downloading model checkpoint to a local dir model_dir

model_dir = snapshot_download('Qwen/Qwen2.5-0.5B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-7B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-32B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-72B-Instruct')

model_dir = snapshot_download('Qwen/Qwen2.5-1.5B-Instruct')

相关推荐
a41324471 天前
ubuntu 25 安装vllm
linux·服务器·ubuntu·vllm
德尔塔大雨淋1 天前
VLLM 中的module PASS 和FUN PASS
linux·服务器·vllm
缘友一世3 天前
大模型分布式推理:Ray 与 vLLM/Transformers 的协同架构深度解析
分布式·架构·transformer·ray·vllm
taoqick3 天前
vLLM中的repetition_penalty、frequency_penalty和presence_penalty
vllm
忆~遂愿4 天前
cpolar拯救被困在局域网中的DS File,让NAS文件访问自由到离谱
人工智能·vllm
缘友一世8 天前
vLLM 生产实践:从极简上手到多 GPU 分布式部署
llm·vllm
就这个丶调调8 天前
VLLM部署全部参数详解及其作用说明
深度学习·模型部署·vllm·参数配置
njsgcs8 天前
vllm Qwen2.5-0.5B输出乱码解决办法 用-Instruct版本的
vllm
njsgcs8 天前
ModelScope下载模型+ vLLM调用+内存释放
windows·wsl·vllm
xiliuhu10 天前
MacOS下vllm运行Qwen3:8b模型
macos·vllm