通过WSL安装Ubuntu并使用GPU部署运行大模型

目录

1.安装wsl下的ubuntu

2.安装docker

3.验证GPU驱动

[4.安装 CUDA Toolkit](#4.安装 CUDA Toolkit)

[5.在容器中测试NVIDIA Container Toolkit](#5.在容器中测试NVIDIA Container Toolkit)

[6.安装 NVIDIA Container Toolkit](#6.安装 NVIDIA Container Toolkit)

[7.配置 Docker 运行](#7.配置 Docker 运行)

[8.测试基础 GPU 访问](#8.测试基础 GPU 访问)

9.测试安装完成

[10.启动 Ollama 容器](#10.启动 Ollama 容器)


1.安装wsl下的ubuntu

以管理员身份打开 PowerShell 或 Windows 命令提示符=

powershell,安装指定版本,指令:

复制代码
wsl --install -d Ubuntu-24.04

安装完成会提示输入用户名、密码以及确认密码;

输完之后直接进入ubuntu

查看当前版本:

开始菜单中多了一项

检查网络配置

先更新下载

sudo apt-get update;

sudo apt-get install net-tools;

2.安装docker

安装步骤见:

从零搭建局域网大模型服务器:Ubuntu Server + Ollama + LiteLLM + Claude Code 完整指南_claudecode通过litellm接本地ollama模型-CSDN博客

安装验证

3.验证GPU驱动

输入:nvidia-smi

验证**nvcc --version**

提示未找到,则安装

4.安装 CUDA Toolkit

你的系统是 Ubuntu 24.04,请执行以下命令:

复制代码
# 1. 下载并安装 NVIDIA 官方软件源配置包
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb

# 2. 更新软件包列表
sudo apt-get update

# 3. 安装 CUDA Toolkit(安装后自动配置环境变量)
sudo apt-get -y install cuda-toolkit-12-6

设置环境变量

ls /usr/local/ | grep cuda

find /usr -name nvcc 2>/dev/null

设置环境变量

echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc

echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc

更新环境变量source ~/.bashrc

验证 nvcc --version

5.在容器中测试NVIDIA Container Toolkit

复制代码
# 1. 停止并删除失败的容器
sudo docker stop ollama 2>/dev/null
sudo docker rm ollama 2>/dev/null

# 2. 卸载现有的 nvidia-container-toolkit(如果已安装)
sudo apt-get remove -y nvidia-container-toolkit nvidia-container-runtime
sudo rm -f /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update

6.安装 NVIDIA Container Toolkit

复制代码
# 1. 安装依赖
sudo apt-get install -y curl gnupg

# 2. 添加 NVIDIA 官方 GPG 密钥
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

# 3. 添加软件源
echo "deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://nvidia.github.io/libnvidia-container/stable/deb/$(ARCH) /" | \
  sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

# 4. 更新并安装
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit

7.配置 Docker 运行

bash

复制代码
# 1. 配置 Docker 使用 NVIDIA 运行时
sudo nvidia-ctk runtime configure --runtime=docker

# 2. 重启 Docker 服务
sudo systemctl restart docker

# 3. 验证配置是否成功
cat /etc/docker/daemon.json

8.测试基础 GPU 访问

sudo docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

9.测试安装完成

运行docker,安装ollama

打开终端,拉取最新的 Ollama Docker 镜像。

复制代码
sudo docker pull ollama/ollama:latest

等待下载完成

10.启动 Ollama 容器

sudo docker run -d --gpus all --name ollama -p 11434:11434 -v ollama_data:/root/.ollama ollama/ollama

参数:--gpus all,在显卡中启动ollama,不加该参数默认在内存中运行

复制代码
 sudo docker run -d --gpus all --name ollama -p 11434:11434 ollama/ollama

加载模型,可以进入docker中下载也可以在本地命令行操作,

docker exec -it ollama ollama run qwen2.5-coder:32b

或则进入容器的命令行:

sudo docker exec -it ollama /bin/bash

ollama run qwen2.5-coder:32b

此处32b需要更具自己的现显存确定,大概计算方式为32/2*1.5=24G(需要运行的显存大小)

第一次执行是要下载大模型的需要等一会

说明有一部分加载到内存里面去了,看看

指令:docker exec -it ollama ollama ps

可以看出确实有一部分加载到内存里面去了,可以删除模型下载一个14b的,此处不在演示;

相关推荐
halazi1001 天前
WSL 安装与 Ubuntu 24.04 配置使用指南
linux·运维·ubuntu·wsl
toooooop83 天前
wsl系统无损迁移到ssd硬盘
linux·wsl
曦云沐5 天前
效率翻倍!Windows 11 启用 WSL 的最快姿势(附虚拟化开启教程)
windows·wsl
谢娘蓝桥7 天前
wsl2 windows 安装
wsl
sz4972385998 天前
WSL2+VSCode搭建ESP-IDF 开发环境
ide·vscode·编辑器·esp32·wsl
*星星之火*8 天前
【AI工具篇】Windows 安装 WSL 全攻略:wsl --install 一键部署 + VSCode 搭配使用好处详解
windows·vscode·wsl
吴烦恼的博客13 天前
WSL迁移指南
ubuntu·wsl·系统移植
Irene199117 天前
前端开发中,WSL和本地开发的区别(本地项目,PowerShell和Bash均可执行npm命令,推荐使用 PowerShell)
wsl·本地开发
cuckooman19 天前
如何升级wsl1到wsl2
wsl·wsl2