Ubuntu 单机多卡部署脚本: vLLM + DeepSeek 70B

部署脚本:Ubuntu + vLLM + DeepSeek 70B

执行前请确保:1. 系统为 Ubuntu 20.04/22.04 2. 拥有NVIDIA显卡(显存≥24G)

保存两个文件 1 init.sh 初始化 2、test.sh 测试

init.sh

复制代码
#!/bin/bash
# 系统更新与基础依赖

sudo apt update && sudo apt upgrade -y

sudo apt install -y build-essential python3-pip curl git wget

# NVIDIA驱动安装(需重启)

#sudo add-apt-repository ppa:graphics-drivers/ppa -y

#sudo apt update

#sudo apt install -y nvidia-driver-550-server

echo "请手动重启系统后再次执行本脚本!"

echo "sudo reboot "
exit 0  # 首次执行到此退出 

---- 以下为重启后执行的第二部分 ----

#test.sh

复制代码
#!/bin/bash
set -e
set -o pipefail

# 模型下载示例(替换为实际模型ID)
MODEL_ID="deepseek-ai/DeepSeek-R1-Distill-Llama-70B"
python - <<EOF
from modelscope import snapshot_download
snapshot_download('$MODEL_ID', cache_dir='./models')
EOF

# 启动服务
vllm serve  ./models/$MODEL_ID  --tensor-parallel-size 8 --gpu-memory-utilization 0.95 --port 6006  --max-model-len 8192 &
SERVER_PID=$!
echo "Serve PID $SERVER_PID"
# 检查 PID 和端口的函数
check_status() {
    # 检查 PID 是否存在
    if [[ -z "$SERVER_PID" ]]; then
        echo "错误:SERVER_PID未定义"
        exit 1
    fi

    if ! kill -0 $SERVER_PID > /dev/null 2>&1; then
        echo "程序异常退出"
        exit 1
    fi
   sleep 3
    # 检查端口 6006 是否在使用(注意脚本中使用的是6006,而非8000)
    if ss -tuln | grep -q ':6006 '; then
        echo "服务已就绪"
        curl -i -k -X POST "http://localhost:6006/v1/chat/completions"  -H "Content-Type: application/json"  --data '{ "model": "/pde_ai/ssd_models/llm/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B", "Max_tokens": 1024, "Temperature": 0, "messages": [ { "role": "user", "content": "中国的首都在哪里?" } ] }'

        echo "退出服务 kill  $SERVER_PID"
        sleep 3
        kill  $SERVER_PID

        return 0
    else
        echo "服务未就绪"
        return 1
    fi
}

# 等服务成功后测试一下
while true; do
    if check_status; then
        sleep 1
    else
        echo "程序异常退出"
        exit 1
    fi
done

保存完后

chmod +x *.sh 设置为可执行

第一次也只要一次运行 init.sh 后重启服务器

后面测试 只要 test.sh ,test.sh 第一次需要下载模型会慢一些.

相关推荐
随心............14 分钟前
Spark面试题
大数据·分布式·spark
君不见,青丝成雪1 小时前
Flink的CheckPoint与SavePoint
大数据·flink
mask哥1 小时前
详解flink SQL基础(四)
java·大数据·数据库·sql·微服务·flink
{⌐■_■}2 小时前
【ElasticSearch】使用docker compose,通过编写yml安装es8.15和kibana可视化界面操作,go连接es
elasticsearch·docker·golang
dxt_snow2 小时前
docker在自定义网络中安装ElasticSearch和Kibana
网络·elasticsearch·docker
wan5555cn2 小时前
AI 时代“驯导师”职业发展方向探究
大数据·人工智能·笔记·深度学习
oYiMiYangGuang1233 小时前
【广告系列】流量归因模型
大数据·人工智能
我要学习别拦我~3 小时前
读《精益数据分析》:A/B测试与多变量测试
大数据·数据分析
IT毕设梦工厂3 小时前
大数据毕业设计选题推荐-基于大数据的超市销售数据统计分析系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata
Lx3525 小时前
Hadoop数据本地性优化:减少网络传输的实战经验
大数据·hadoop