linux部署VLLM、大模型(详细图文)

一、安装vllm

创建虚拟环境(版本确保是3.8~3.11)

复制代码
conda create -n vllm_env python=3.10 -y

激活虚拟环境

复制代码
conda activate vllm_env

安装vllm

复制代码
pip install vllm

安装torch(用于深度学习的并行计算)

复制代码
 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

验证torch是否安装成功

复制代码
 python -c "import torch; print('PyTorch版本:', torch.__version__); print('CUDA版本:', torch.version.cuda); print('GPU可用:', torch.cuda.is_available())"

安装fast_attention(处理标准注意力在长序列场景下的内存爆炸IO 瓶颈问题)

复制代码
conda install -c conda-forge flash-attn=2.5.8

测试fast_attention是否安装成功

复制代码
nano test.py

在文件里粘贴这些代码

复制代码
# 验证 flash-attn 是否安装成功的测试脚本
import torch
from flash_attn import flash_attn_func

# 检查 GPU 是否可用
if not torch.cuda.is_available():
    print("❌ 未检测到 GPU,请确认 PyTorch CUDA 版本安装正确")
else:
    # 生成 fp16 精度的 Q/K/V 张量(适配 GPU)
    q = torch.randn(2, 1024, 16, 64, device="cuda", dtype=torch.float16)
    k = torch.randn(2, 1024, 16, 64, device="cuda", dtype=torch.float16)
    v = torch.randn(2, 1024, 16, 64, device="cuda", dtype=torch.float16)
    
    # 执行 flash-attn 计算
    try:
        out = flash_attn_func(q, k, v)
        print(f"✅ flash-attn 安装成功!输出 shape: {out.shape}")
    except Exception as e:
        print(f"❌ flash-attn 执行失败,错误信息:{e}")

执行文件

复制代码
python test.py

安装成功

删除py文件

复制代码
rm test.py

到此vllm安装完成

二、使用vllm部署大模型

先下载魔搭社区

复制代码
pip install modelscope

下载git工具

复制代码
git lfs install

git clone https://www.modelscope.cn/Qwen/Qwen1.5-1.8B.git

安装完成

如果不想要这个模型了,可以删除

复制代码
rm -rf ~/Qwen1.5-1.8B
相关推荐
陈 洪 伟10 小时前
大模型推理引擎vLLM(19): vLLM中的DBO(Dual Batch Overlap)功能代码实现分析
vllm
AIGC_北苏1 天前
Qwen3.5开源模型实测
vllm
npupengsir1 天前
nano vllm代码详解
人工智能·算法·vllm
冰封剑心2 天前
容器参数错误,更换参数
人工智能·计算机视觉·vllm
吴佳浩 Alben2 天前
GPU 生产环境实践:硬件拓扑、显存管理与完整运维体系
运维·人工智能·pytorch·语言模型·transformer·vllm
m0_564876843 天前
nano-vllm学习
学习·vllm
谢白羽4 天前
vllm实践
android·vllm
冰封剑心5 天前
VLLM部署
vllm
翱翔的苍鹰5 天前
通过LangChain Agent模拟实现美团外卖下单场景
人工智能·深度学习·语言模型·自然语言处理·langchain·vllm