安装 NVIDIA Container Runtime(含离线安装)

由于我要离线安装,所以我在联网状态下按照离线方式进行的安装,但下载是联网状态。

第一步:在联网状态下下载所需.deb包(在ubuntu 22.04.5上运行)

1. 添加 NVIDIA 仓库(仅用于下载,不安装)

设置 distribution 变量

distribution=(. /etc/os-release;echo ID$VERSION_ID)

添加 GPG 密钥 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

添加正确的仓库(使用通用 deb 路径)

echo "deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://nvidia.github.io/libnvidia-container/stable/deb/amd64 /" | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt update

2. 创建一个目录用于存放 .deb 文件

mkdir -p ~/nvidia-offline && cd ~/nvidia-offline

3. 下载 nvidia-container-toolkit 及其所有依赖(不安装)

apt download $(apt-cache depends --recurse --no-recommends --no-suggests --no-conflicts --no-breaks --no-replaces --no-enhances nvidia-container-toolkit | grep "^\w" | sort -u)

4. (可选)同时下载 GPG 公钥文件

cp /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg ./

5. 打包

tar -czvf nvidia-container-toolkit-offline.tar.gz *.deb nvidia-container-toolkit-keyring.gpg

第二步:将文件拷贝到离线 WSL2 环境

  • nvidia-container-toolkit-offline.tar.gz 拷贝到 Windows 主机(例如 C:\offline\
  • 在 WSL2 中访问:/mnt/c/offline/
  • 解压:

mkdir -p ~/nvidia-offline

tar -xzvf /mnt/c/offline/nvidia-container-toolkit-offline.tar.gz -C ~/nvidia-offline

cd ~/nvidia-offline

第三步:在离线 Ubuntu (WSL2) 中安装

1. 安装 GPG 密钥(用于验证,虽离线但保持配置一致)

sudo cp nvidia-container-toolkit-keyring.gpg /usr/share/keyrings/

2. 安装所有 .deb 包(注意顺序:依赖先装)

sudo dpkg -i *.deb

如果提示依赖错误(因为顺序问题),运行:

sudo apt-get install -f

第四步:配置 Docker runtime

sudo nvidia-ctk runtime configure --runtime=docker

第五步:重启 Docker

之前我启用了systemd,就是添加到wsl.conf文件那个,所以:

sudo systemctl restart docker #看到 active (running)

第六步:离线测试

docker run --rm --gpus all nvidia/cuda:12.4.0-base-ubuntu22.04 nvidia-smi

这里报错了,显示:

Unable to find image 'nvidia/cuda:12.4.0-base-ubuntu22.04' locally

解决方案:

1.将 cuda-12.4-base.tar 拷贝到你的离线 WSL2 机器

例如放在 Windows 的 C:\offline\cuda-12.4-base.tar,则在 WSL2 中路径为:

/mnt/c/offline/cuda-12.4-base.tar

2.在离线 WSL2 中加载镜像:

docker load -i /mnt/c/offline/cuda-12.4-base.tar

#输出类似于:Loaded image: nvidia/cuda:12.4.0-base-ubuntu22.04

再次运行测试命令!!!

docker run --rm --gpus all nvidia/cuda:12.4.0-base-ubuntu22.04 nvidia-smi

成功显示 GPU 信息!!!!跟用nvidia-smi的一样

相关推荐
pen-ai2 小时前
【高级机器学习】6. 稀疏编码与正则化
人工智能·机器学习
美团技术团队2 小时前
美团开源LongCat-Audio-Codec,高效语音编解码器助力实时交互落地
人工智能
程思扬2 小时前
开源 + 实时 + 无网络限制:Excalidraw 是流程图协作新选择
网络·人工智能·阿里云·ai·开源·流程图
聚合菌2 小时前
【数据启元计划】推荐有礼:最高领100元话费或热门视频会员年卡!
人工智能
松岛雾奈.2302 小时前
机器学习--KNN算法中的距离、范数、正则化
人工智能·算法·机器学习
程途拾光1582 小时前
用流程图优化工作流:快速识别冗余环节,提升效率
大数据·论文阅读·人工智能·流程图·论文笔记
Lab4AI大模型实验室2 小时前
【Github热门项目】DeepSeek-OCR项目上线即突破7k+星!突破10倍无损压缩,重新定义文本-视觉信息处理
人工智能·github·deepseek-ocr
Brduino脑机接口技术答疑2 小时前
支持向量机(SVM)在脑电情绪识别中的学术解析与研究进展
人工智能·算法·机器学习·支持向量机·数据分析
北京耐用通信2 小时前
从‘卡壳’到‘丝滑’:耐达讯自动化PROFIBUS光纤模块如何让RFID读写器实现‘零延迟’物流追踪?”
网络·人工智能·科技·物联网·网络协议·自动化