linux部署VLLM、大模型(详细图文)

一、安装vllm

创建虚拟环境(版本确保是3.8~3.11)

复制代码
conda create -n vllm_env python=3.10 -y

激活虚拟环境

复制代码
conda activate vllm_env

安装vllm

复制代码
pip install vllm

安装torch(用于深度学习的并行计算)

复制代码
 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

验证torch是否安装成功

复制代码
 python -c "import torch; print('PyTorch版本:', torch.__version__); print('CUDA版本:', torch.version.cuda); print('GPU可用:', torch.cuda.is_available())"

安装fast_attention(处理标准注意力在长序列场景下的内存爆炸IO 瓶颈问题)

复制代码
conda install -c conda-forge flash-attn=2.5.8

测试fast_attention是否安装成功

复制代码
nano test.py

在文件里粘贴这些代码

复制代码
# 验证 flash-attn 是否安装成功的测试脚本
import torch
from flash_attn import flash_attn_func

# 检查 GPU 是否可用
if not torch.cuda.is_available():
    print("❌ 未检测到 GPU,请确认 PyTorch CUDA 版本安装正确")
else:
    # 生成 fp16 精度的 Q/K/V 张量(适配 GPU)
    q = torch.randn(2, 1024, 16, 64, device="cuda", dtype=torch.float16)
    k = torch.randn(2, 1024, 16, 64, device="cuda", dtype=torch.float16)
    v = torch.randn(2, 1024, 16, 64, device="cuda", dtype=torch.float16)
    
    # 执行 flash-attn 计算
    try:
        out = flash_attn_func(q, k, v)
        print(f"✅ flash-attn 安装成功!输出 shape: {out.shape}")
    except Exception as e:
        print(f"❌ flash-attn 执行失败,错误信息:{e}")

执行文件

复制代码
python test.py

安装成功

删除py文件

复制代码
rm test.py

到此vllm安装完成

二、使用vllm部署大模型

先下载魔搭社区

复制代码
pip install modelscope

下载git工具

复制代码
git lfs install

git clone https://www.modelscope.cn/Qwen/Qwen1.5-1.8B.git

安装完成

如果不想要这个模型了,可以删除

复制代码
rm -rf ~/Qwen1.5-1.8B
相关推荐
做个文艺程序员1 天前
vLLM 部署大模型推理服务完全教程:吞吐量是 Ollama 的 10 倍,生产环境首选
vllm·vllm教程
liuyunshengsir2 天前
LMCache + vLLM 部署指南(以 Qwen3-0.6B 为例)
vllm
诸葛老刘2 天前
在PC机上 使用docker vLLM镜像部署Qwen3-1.7B
docker·vllm
Soonyang Zhang3 天前
vllm分析(二)——http request的入口处理
人工智能·vllm·推理框架
xyhshen3 天前
如何两台atlas-a2服务器物理机,基于vllm-ascend部署qwen3.5 397b-w8a8-mtp大模型
vllm
zadyd3 天前
vLLM Linux 双卡部署大模型服务器指南
linux·人工智能·python·机器学习·vllm
是Dream呀10 天前
从零到一:Triton实现CELU激活函数优化之路
ai·vllm·openclaw
花间相见11 天前
【大模型推理01】—— 初探VLLM:高性能LLM推理引擎,让开源模型跑起来更快更省
开源·vllm
Flying pigs~~11 天前
大模型训练框架 ➕ 推理部署框架
模型训练·deepspeed·vllm·模型推理·zero·pageattention