HongKongの1024

复制代码
version: '3.8'

services:
  lbot-14b:
    image: quay.io/ascend/vllm-ascend:v0.11.0rc0-openeuler
    container_name: lbot-14b
    privileged: true
    ipc: host
    shm_size: 96g
    devices:
      - /dev/davinci0
      - /dev/davinci1
      - /dev/davinci_manager
      - /dev/devmm_svm
      - /dev/hisi_hdc
    volumes:
      - /usr/local/dcmi:/usr/local/dcmi
      - /usr/local/bin/npu-smi:/usr/local/bin/npu-smi
      - /usr/local/sbin/:/usr/local/sbin
      - /usr/local/Ascend/driver:/usr/local/Ascend/driver
      - /etc/ascend_install.info:/etc/ascend_install.info
      - /etc/vnpu.cfg:/etc/vnpu.cfg
         - /data/disk2/alphainf/models/Qwen/Qwen3-14B:/mnt/data/models/Qwen3-14B
         - /data/disk2/alphainf/lora:/mnt/data/auto-train/volumes/save
    environment:
      - VLLM_ALLOW_RUNTIME_LORA_UPDATING=True
      - VLLM_LORA_RESOLVER_CACHE_DIR=/mnt/data/auto-train/volumes/save
      - OMP_NUM_THREADS=48
      - NPU_MEMORY_FRACTION=0.8
      - MINDIE_LOG_TO_STDOUT=1
      - MINDIE_LOG_TO_FILE=1
      - MINDIE_LOG_VERBOSE=1
      - VLLM_USE_V1=1
      - VLLM_PLUGINS=lora_filesystem_resolver
      - OMP_NUM_THREADS=4
    ports:
      - 6214:6214
    entrypoint: []
    command:
      - "bash"
      - "-c"
      - "python3 -m vllm.entrypoints.openai.api_server \
        --model=/mnt/data/models/Qwen3-14B --served-model-name lbot-14b --host 0.0.0.0 --port 6214 --gpu-memory-utilization 0.8  --max-num-seqs 200 --max-seq-len-to-capture 32768 --max-model-len 32768 --enable-prefix-caching --quantization=fp8   --reasoning-parser qwen3 --enable-lora  --max-lora-rank 64 --tensor-parallel-size 2"  也能写成一句docker run吧

可以将这个 docker-compose.yml 配置转换为等效的 docker run 命令。以下是转换后的命令(为了可读性拆分为多行,实际使用时可合并为一行):

复制代码
docker run -d \
  --name lbot-14b \
  --privileged \
  --ipc=host \
  --shm-size=96g \
  --device=/dev/davinci0 \
  --device=/dev/davinci1 \
  --device=/dev/davinci_manager \
  --device=/dev/devmm_svm \
  --device=/dev/hisi_hdc \
  -v /usr/local/dcmi:/usr/local/dcmi \
  -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
  -v /usr/local/sbin/:/usr/local/sbin \
  -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \
  -v /etc/ascend_install.info:/etc/ascend_install.info \
  -v /etc/vnpu.cfg:/etc/vnpu.cfg \
  -v /data/disk2/alphainf/models/Qwen/Qwen3-14B:/mnt/data/models/Qwen3-14B \
  -v /data/disk2/alphainf/lora:/mnt/data/auto-train/volumes/save \
  -e VLLM_ALLOW_RUNTIME_LORA_UPDATING=True \
  -e VLLM_LORA_RESOLVER_CACHE_DIR=/mnt/data/auto-train/volumes/save \
  -e OMP_NUM_THREADS=4 \
  -e NPU_MEMORY_FRACTION=0.8 \
  -e MINDIE_LOG_TO_STDOUT=1 \
  -e MINDIE_LOG_TO_FILE=1 \
  -e MINDIE_LOG_VERBOSE=1 \
  -e VLLM_USE_V1=1 \
  -e VLLM_PLUGINS=lora_filesystem_resolver \
  -p 6214:6214 \
  quay.io/ascend/vllm-ascend:v0.11.0rc0-openeuler \
  bash -c "python3 -m vllm.entrypoints.openai.api_server \
    --model=/mnt/data/models/Qwen3-14B \
    --served-model-name lbot-14b \
    --host 0.0.0.0 \
    --port 6214 \
    --gpu-memory-utilization 0.8 \
    --max-num-seqs 200 \
    --max-seq-len-to-capture 32768 \
    --max-model-len 32768 \
    --enable-prefix-caching \
    --quantization=fp8 \
    --reasoning-parser qwen3 \
    --enable-lora \
    --max-lora-rank 64 \
    --tensor-parallel-size 2"
相关推荐
liguojun20251 天前
智慧破局:重构体育场馆的运营与体验新生态
java·大数据·人工智能·物联网·重构·1024程序员节
Yupureki2 天前
《算法竞赛从入门到国奖》算法基础:入门篇-前缀和
c语言·数据结构·c++·算法·1024程序员节
CoderYanger2 天前
动态规划算法-01背包问题:50.分割等和子集
java·算法·leetcode·动态规划·1024程序员节
CoderYanger3 天前
动态规划算法-两个数组的dp(含字符串数组):48.最长重复子数组
java·算法·leetcode·动态规划·1024程序员节
金融小师妹3 天前
美联储议息夜:基于多智能体决策分歧模型的“鹰派降息”推演
人工智能·深度学习·1024程序员节
金融小师妹3 天前
基于NLP政策文本分析与多智能体博弈模拟的FOMC决策推演:“美联储传声筒”下的利率路径分歧
大数据·人工智能·深度学习·1024程序员节
打码人的日常分享4 天前
IPD项目质量体系管理方案
大数据·运维·人工智能·信息可视化·1024程序员节
CoderYanger5 天前
动态规划算法-两个数组的dp(含字符串数组):42.不相交的线
java·算法·leetcode·动态规划·1024程序员节
CoderYanger5 天前
动态规划算法-两个数组的dp(含字符串数组):43.不同的子序列
java·算法·leetcode·动态规划·1024程序员节
CoderYanger5 天前
动态规划算法-两个数组的dp(含字符串数组):41.最长公共子序列(模板)
java·算法·leetcode·动态规划·1024程序员节