Windows上使用Docker Desktop部署GPUStack

1. 前置条件

  • 宿主机必须配备支持CUDA的NVIDIA GPU,并安装与该GPU型号匹配的NVIDIA驱动(可通过nvidia-smi验证驱动是否安装成功)
  • 安装 Docker Desktop
  • 安装 WSL2(推荐 Ubuntu-22.04 发行版)
  • WSL2 中安装 CUDA Toolkit
  • WSL2 中安装 cuDNN

1.1 宿主机安装与GPU型号匹配的NVIDIA驱动

安装完成后输入以下命令验证是否安装成功

cmd 复制代码
nvidia-smi

出现以下界面表示安装成功!

1.2 安装 Docker Desktop

Docker Desktop Installer.exe文件目录下的终端执行以下命令,将Docker Desktop安装到D盘。

cmd 复制代码
start /w "" "Docker Desktop Installer.exe" install -accept-license --installation-dir="D:\Docker" --wsl-default-data-root="D:\Docker\data" --windows-containers-default-data-root="D:\\Docker"

1.3 安装 WSL2(Ubuntu-22.04)

安装Ubuntu-22.04

cmd 复制代码
wsl --install -d Ubuntu-22.04

建议移动ubuntu位置至D盘

cmd 复制代码
wsl --manage Ubuntu-22.04 --move "D:\wsl\Ubuntu"

安装完成后查看wsl列表

cmd 复制代码
wsl --list

将Ubuntu-22.04设置为默认值

cmd 复制代码
wsl --set-default Ubuntu-22.04

进入wsl

cmd 复制代码
wsl

1.4 WSL2 中安装 CUDA Toolkit

nvidia-smi查看可知CUDA版本为13.0,进入 CUDA Toolkit 存档界面选择CUDA Toolkit 13.0.0,然后选择以下配置 在wsl终端执行以下命令安装

bash 复制代码
sudo wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
sudo wget https://developer.download.nvidia.com/compute/cuda/13.0.0/local_installers/cuda-repo-wsl-ubuntu-13-0-local_13.0.0-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-13-0-local_13.0.0-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-13-0-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda-toolkit-13-0

此时CUDA已安装完成,可以删除下载的.deb软件包

bash 复制代码
rm cuda-repo-wsl-*

配置 CUDA 环境变量,编辑vim ~/.bashrc文件,增加以下配置

bash 复制代码
export CUDA_HOME=/usr/local/cuda-13.0
export PATH=$PATH:$CUDA_HOME/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$CUDA_HOME/lib64
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$CUDA_HOME/extras/CUPTI/lib64

刷新配置

bash 复制代码
source ~/.bashrc

验证安装是否成功

bash 复制代码
nvcc --version

1.5 WSL2 中安装 cuDNN

一般可在 cuDNN 存档界面查看匹配CUDA的版本(需点击进入查看是否存在cudnn9-cuda-13信息),因此选择cuDNN版本9.12.0,进入下载界面 在wsl终端执行以下命令安装

bash 复制代码
sudo wget https://developer.download.nvidia.com/compute/cudnn/9.12.0/local_installers/cudnn-local-repo-ubuntu2404-9.12.0_1.0-1_amd64.deb
sudo dpkg -i cudnn-local-repo-ubuntu2404-9.12.0_1.0-1_amd64.deb
sudo cp /var/cudnn-local-repo-ubuntu2404-9.12.0/cudnn-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cudnn

此时cuDNN已安装完成,可以删除下载的.deb软件包

bash 复制代码
rm cudnn-local-repo-*

因为CUDA版本为13.0.因为还需在wsl终端执行以下命令

bash 复制代码
sudo apt-get -y install cudnn9-cuda-13

出现以下界面表示安装成功!

2. 安装GPUStack

  • 创建并进入D:\DockerContainer\GPUStack文件夹
  • 在该文件夹下创建并编写docker-compose.yaml文件
yaml 复制代码
services:
  gpustack:
    container_name: gpustack
    image: gpustack/gpustack
    restart: always
    ipc: host
    volumes:
      - ./volumn:/var/lib/gpustack
    ports:
      - "8000:80"
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              capabilities: [gpu]
  • 在该文件夹下进入终端,使用以下命令启动容器
cmd 复制代码
docker-compose up -d
  • 访问http://127.0.0.1:8000进入GPUStack登录页
  • 账户名为admin, GPUStack初始密码需输入以下命令获取
cmd 复制代码
docker exec -it gpustack cat /var/lib/gpustack/initial_admin_password

至此GPUStack在Windows上部署结束,可以愉快地部署自己的AI大模型了!

相关推荐
数科云3 小时前
AI提示词(Prompt)入门:什么是Prompt?为什么要写好Prompt?
人工智能·aigc·ai写作·ai工具集·最新ai资讯
Devlive 开源社区3 小时前
技术日报|Claude Code超级能力库superpowers登顶日增1538星,自主AI循环ralph爆火登榜第二
人工智能
软件供应链安全指南4 小时前
灵脉 IAST 5.4 升级:双轮驱动 AI 漏洞治理与业务逻辑漏洞精准检测
人工智能·安全
lanmengyiyu4 小时前
单塔和双塔的区别和共同点
人工智能·双塔模型·网络结构·单塔模型
微光闪现4 小时前
AI识别宠物焦虑、紧张和晕车行为,是否已经具备实际可行性?
大数据·人工智能·宠物
技术小黑屋_4 小时前
用好Few-shot Prompting,AI 准确率提升100%
人工智能
中草药z4 小时前
【嵌入模型】概念、应用与两大 AI 开源社区(Hugging Face / 魔塔)
人工智能·算法·机器学习·数据集·向量·嵌入模型
知乎的哥廷根数学学派5 小时前
基于数据驱动的自适应正交小波基优化算法(Python)
开发语言·网络·人工智能·pytorch·python·深度学习·算法
DisonTangor5 小时前
GLM-Image:面向密集知识与高保真图像生成的自回归模型
人工智能·ai作画·数据挖掘·回归·aigc
努力学习的小洋6 小时前
Python训练打卡Day5离散特征的处理-独热编码
人工智能·python·机器学习