安装 NVIDIA Container Runtime(含离线安装)

由于我要离线安装,所以我在联网状态下按照离线方式进行的安装,但下载是联网状态。

第一步:在联网状态下下载所需.deb包(在ubuntu 22.04.5上运行)

1. 添加 NVIDIA 仓库(仅用于下载,不安装)

设置 distribution 变量

distribution=(. /etc/os-release;echo ID$VERSION_ID)

添加 GPG 密钥 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

添加正确的仓库(使用通用 deb 路径)

echo "deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://nvidia.github.io/libnvidia-container/stable/deb/amd64 /" | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt update

2. 创建一个目录用于存放 .deb 文件

mkdir -p ~/nvidia-offline && cd ~/nvidia-offline

3. 下载 nvidia-container-toolkit 及其所有依赖(不安装)

apt download $(apt-cache depends --recurse --no-recommends --no-suggests --no-conflicts --no-breaks --no-replaces --no-enhances nvidia-container-toolkit | grep "^\w" | sort -u)

4. (可选)同时下载 GPG 公钥文件

cp /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg ./

5. 打包

tar -czvf nvidia-container-toolkit-offline.tar.gz *.deb nvidia-container-toolkit-keyring.gpg

第二步:将文件拷贝到离线 WSL2 环境

  • nvidia-container-toolkit-offline.tar.gz 拷贝到 Windows 主机(例如 C:\offline\
  • 在 WSL2 中访问:/mnt/c/offline/
  • 解压:

mkdir -p ~/nvidia-offline

tar -xzvf /mnt/c/offline/nvidia-container-toolkit-offline.tar.gz -C ~/nvidia-offline

cd ~/nvidia-offline

第三步:在离线 Ubuntu (WSL2) 中安装

1. 安装 GPG 密钥(用于验证,虽离线但保持配置一致)

sudo cp nvidia-container-toolkit-keyring.gpg /usr/share/keyrings/

2. 安装所有 .deb 包(注意顺序:依赖先装)

sudo dpkg -i *.deb

如果提示依赖错误(因为顺序问题),运行:

sudo apt-get install -f

第四步:配置 Docker runtime

sudo nvidia-ctk runtime configure --runtime=docker

第五步:重启 Docker

之前我启用了systemd,就是添加到wsl.conf文件那个,所以:

sudo systemctl restart docker #看到 active (running)

第六步:离线测试

docker run --rm --gpus all nvidia/cuda:12.4.0-base-ubuntu22.04 nvidia-smi

这里报错了,显示:

Unable to find image 'nvidia/cuda:12.4.0-base-ubuntu22.04' locally

解决方案:

1.将 cuda-12.4-base.tar 拷贝到你的离线 WSL2 机器

例如放在 Windows 的 C:\offline\cuda-12.4-base.tar,则在 WSL2 中路径为:

/mnt/c/offline/cuda-12.4-base.tar

2.在离线 WSL2 中加载镜像:

docker load -i /mnt/c/offline/cuda-12.4-base.tar

#输出类似于:Loaded image: nvidia/cuda:12.4.0-base-ubuntu22.04

再次运行测试命令!!!

docker run --rm --gpus all nvidia/cuda:12.4.0-base-ubuntu22.04 nvidia-smi

成功显示 GPU 信息!!!!跟用nvidia-smi的一样

相关推荐
憨波个1 分钟前
【说话人日志】DOVER:diarization 输出融合算法
人工智能·算法·音频·语音识别·聚类
skilllite作者2 分钟前
Zed 1.0 编辑器深度评测与实战指南
开发语言·人工智能·windows·python·编辑器·agi
送秋三十五3 分钟前
如何让 AI“看懂”网页?拆解 Browser-Use 的三大核心技术模块(前)
人工智能
爱学习的张大3 分钟前
具身智能论文问答(四):pi0
人工智能·算法
AI让世界更懂你3 分钟前
从降本增效到能力重构:AI快速发展之后,我们该如何理解工程应用与科研AI?
人工智能·重构
ASKED_20194 分钟前
KDD Cup 2026 腾讯算法广告大赛:UNI-REC-PCVRHyFormer 源码深度解读
人工智能
硅谷茶馆5 分钟前
免费!开源!AI 全自动短视频工具,Comfyui本地接入0帧起手!
人工智能
qcx239 分钟前
拆解 Warp AI Agent(五):跨生态联邦——10 种 Skill + MCP + 多 Harness 互操作设计
人工智能·rust·ai agent·skill·warp·mcp·harness
生成论实验室11 分钟前
《事件关系阴阳博弈动力学:识势应势之道》第五篇:安全关键关系——故障、障碍与冲突
运维·服务器·人工智能·安全·架构
weixin_4462608512 分钟前
应用实战篇:利用 DeepSeek V4 构建生产级 AI 应用的全流程与最佳实践
大数据·linux·人工智能