wsl ubuntu24.04 cuda13 cudnn9 pytorch 显卡加速

在WSL Ubuntu中部署CUDAToolkit cuDNN pytorch显卡加速

软件 版本
ubuntu 24.04
cuda-tookit 13.0
cudnn 9.15.0
pytorch 2.9.0+cu130
torchaudio 2.9.0+cu130
torchvision 2.9.0+cu130

在WSLUbuntu中部署Python3.12、CUDAToolkit和cuDNN的官方下载页面及步骤如下:

bash 复制代码
mkdir ~/cuda ~/cudnn

1.安装WindowsGPU驱动(WSL专用)

WSL2的GPU加速依赖Windows驱动,需下载NVIDIAWSL2专用驱动

官方下载页面NVIDIACUDAonWSLDownloads

选择适合你显卡型号的驱动版本(如471.21或更新),下载后直接在Windows中安装。

注意:安装驱动后需重启Windows,并确保WSL已升级到版本2。

2.安装CUDAToolkit(WSL专用)

NVIDIA提供针对WSL的CUDAToolkit安装包。

官方下载页面CUDAToolkit13forWSL

选择以下命令下载并安装

bash 复制代码
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb -P ~/cuda
sudo dpkg -i ~/cuda/cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-13-0

安装完成后,配置环境变量

bash 复制代码
echo 'export PATH=/usr/local/cuda-13/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-13/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

验证安装

bash 复制代码
nvcc --version

3.安装cuDNN

cuDNN需与CUDAToolkit版本匹配,不推荐当独安装,在安装tpytorch的时候会自动安装匹配的版本。

-官方下载页面
NVIDIAcuDNNDownload

下载后执行以下命令安装:

bash 复制代码
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb -P ~/cudnn
sudo dpkg -i ~/cudnn/cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cudnn-jit

-验证cudnn

bash 复制代码
ldconfig -p | grep libcudnn

4.安装Python3.12和PyTorch

  • 安装Python3.12相关工具(WSLUbuntu中默认可能未预装):

    bash 复制代码
    sudo apt update
    sudo apt -y install python3 python3-pip python3.12-venv
  • 创建虚拟环境

    bash 复制代码
    mkdir pytorch-code && cd pytorch-code
    python3 -m venv .venv
    source .venv/bin/activate
    python -m pip install --upgrade pip setuptools -i https://pypi.tuna.tsinghua.edu.cn/simple
  • 安装PyTorch(GPU版本)

    可通过官方 nightly 版本安装,命令示例:

    bash 复制代码
    pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu130
  • 验证PyTorch可调用CUDA和cuDNN

    python 复制代码
    import torch
    
    # 验证 CUDA 是否可用
    print("CUDA 可用性:", torch.cuda.is_available())
    
    # 验证 cuDNN 是否可用
    print("cuDNN 可用性:", torch.backends.cudnn.is_available())
    
    # 查看 CUDA 版本
    print("CUDA 版本:", torch.version.cuda)
    
    # 查看 cuDNN 版本
    print("cuDNN 版本(PyTorch 加载的版本):", torch.backends.cudnn.version())
    
    # 测试 GPU 张量运算
    if torch.cuda.is_available():
      # 在 GPU 上创建随机张量
      gpu_tensor = torch.randn(3, 3).cuda()
      print("GPU 张量示例:\n", gpu_tensor)
    
      # 执行简单运算并验证结果
      result = gpu_tensor + gpu_tensor
      print("GPU 运算结果:\n", result)
    else:
      print("未检测到可用 GPU,建议检查 CUDA 或 PyTorch 安装")
      

通过以上步骤,可在WSLUbuntu中完成Python3.12、CUDAToolkit和cuDNN的部署,并验证GPU加速功能。

相关推荐
北京耐用通信1 小时前
电磁阀通讯频频“掉链”?耐达讯自动化Ethernet/IP转DeviceNet救场全行业!
人工智能·物联网·网络协议·安全·自动化·信息与通信
cooldream20091 小时前
小智 AI 智能音箱深度体验全解析:人设、音色、记忆与多场景玩法的全面指南
人工智能·嵌入式硬件·智能音箱
oil欧哟1 小时前
AI 虚拟试穿实战,如何低成本生成模特上身图
人工智能·ai作画
小糖学代码2 小时前
LLM系列:1.python入门:3.布尔型对象
linux·开发语言·python
央链知播2 小时前
中国移联元宇宙与人工智能产业委联席秘书长叶毓睿受邀到北京联合大学做大模型智能体现状与趋势专题报告
人工智能·科技·业界资讯
人工智能培训2 小时前
卷积神经网络(CNN)详细介绍及其原理详解(2)
人工智能·神经网络·cnn
Data_agent2 小时前
1688获得1688店铺详情API,python请求示例
开发语言·爬虫·python
YIN_尹2 小时前
目标检测模型量化加速在 openEuler 上的实现
人工智能·目标检测·计算机视觉
mys55183 小时前
杨建允:企业应对AI搜索趋势的实操策略
人工智能·geo·ai搜索优化·ai引擎优化
小毅&Nora3 小时前
【人工智能】【深度学习】 ⑦ 从零开始AI学习路径:从Python到大模型的实战指南
人工智能·深度学习·学习