cuda12 cudnn9 tensorflow 显卡加速

在WSL Ubuntu中部署CUDAToolkit cuDNN tensorflow显卡加速


软件 版本
ubuntu 24.04
cuda-tookit 12.9
cudnn 9.15.0
tensorflow 2.20.0

在WSLUbuntu中部署Python3.12、CUDAToolkit和cuDNN的官方下载页面及步骤如下:

bash 复制代码
mkdir ~/cuda ~/cudnn

1.安装WindowsGPU驱动(WSL专用)

WSL2的GPU加速依赖Windows驱动,需下载NVIDIAWSL2专用驱动

官方下载页面NVIDIACUDAonWSLDownloads

选择适合你显卡型号的驱动版本,下载后直接在Windows中安装。

注意:安装驱动后需重启Windows,并确保WSL已升级到版本2。

2.安装CUDAToolkit(WSL专用)

NVIDIA提供针对WSL的CUDAToolkit安装包。

官方下载页面CUDAToolkit13forWSL

选择以下命令下载并安装

注意:

英文官网上命令:sudo apt-get -y install cuda-toolkit-13-0

中文官网上命令:sudo apt-get -y install cuda-toolkit-12-4但不可用

cuda-toolkit12推荐命令:sudo apt-get -y install cuda-toolkit-12-9

由于 tensorflow 目前 还没有支持cuda13,因此 本案例安装的是cuda12

bash 复制代码
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb -P ~/cuda
sudo dpkg -i ~/cuda/cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-9

安装完成后,配置环境变量

bash 复制代码
echo 'export PATH=/usr/local/cuda-12/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

验证安装

bash 复制代码
nvcc --version

3.安装cuDNN

cuDNN需与CUDAToolkit版本匹配,不推荐当独安装,在安装tensorflow的时候会自动安装匹配的版本。

-官方下载页面
NVIDIAcuDNNDownload

下载后执行以下命令安装:

bash 复制代码
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb -P ~/cudnn
sudo dpkg -i ~/cudnn/cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cudnn-jit

-验证cudnn

bash 复制代码
ldconfig -p | grep libcudnn

4.安装Python3.12和PyTorch

  • 安装Python3.12相关工具(WSLUbuntu中默认可能未预装):

    bash 复制代码
    sudo apt update
    sudo ap -y install python3 python3-pip python3.12-venv
  • 创建虚拟环境

    bash 复制代码
    mkdir tensorflow-code && cd tensorflow-code
    python3 -m venv .venv
    source .venv/bin/activate
    python -m pip install --upgrade pip setuptools -i https://pypi.tuna.tsinghua.edu.cn/simple
  • 安装tensorflow

    可通过官方 nightly 版本安装,命令示例:

    bash 复制代码
    pip install tensorflow[and-cuda] -i https://pypi.tuna.tsinghua.edu.cn/simple
  • 验证tensorflow可调用CUDA和cuDNN

    python 复制代码
    import tensorflow as tf
    
    # 验证 CUDA 可用性
    print("CUDA 可用:", tf.config.list_physical_devices('GPU'))
    
    # 验证 cuDNN 可用性
    # 获取 TensorFlow 编译时的依赖信息
    build_info = tf.sysconfig.get_build_info()
    print("cuDNN 版本(TensorFlow 编译时使用):", build_info['cudnn_version'])
    
    # 测试 GPU 运算
    if tf.config.list_physical_devices('GPU'):
      with tf.device('/GPU:0'):
        a = tf.constant([1.0, 2.0, 3.0])
        b = tf.constant([4.0, 5.0, 6.0])
        c = a + b
        print("GPU 运算结果:", c.numpy())
    else:
      print("未检测到 GPU 支持,请检查安装")


通过以上步骤,可在WSLUbuntu中完成Python3.12、CUDAToolkit和cuDNN的部署,并验证GPU加速功能。

相关推荐
HackTwoHub9 分钟前
AI大模型网关存在SQL注入、附 POC 复现、影响版本LiteLLM 1.81.16~1.83.7(CVE-2026-42208)
数据库·人工智能·sql·网络安全·系统安全·网络攻击模型·安全架构
段一凡-华北理工大学16 分钟前
【高炉炼铁领域炉温监测、预警、调控智能体设计与应用】~系列文章08:多模态数据融合:让数据更聪明
人工智能·python·高炉炼铁·ai赋能·工业智能体·高炉炉温
万粉变现经纪人20 分钟前
如何解决 pip install llama-cpp-python 报错 未安装 CMake/Ninja 或 CPU 不支持 AVX 问题
开发语言·python·开源·aigc·pip·ai写作·llama
其实防守也摸鱼36 分钟前
CTF密码学综合教学指南--第五章
开发语言·网络·笔记·python·安全·网络安全·密码学
网络工程小王1 小时前
【LangChain 大模型6大调用指南】调用大模型篇
linux·运维·服务器·人工智能·学习
HIT_Weston1 小时前
63、【Agent】【OpenCode】用户对话提示词(示例)
人工智能·agent·opencode
phoenix@Capricornus1 小时前
从贝叶斯决策到最小距离判别法再到Fisher判别分析
机器学习
CV-杨帆1 小时前
Phi-4-mini-flash-reasoning 部署安装与推理测试完整记录
人工智能
MediaTea1 小时前
AI 术语通俗词典:C4.5 算法
人工智能·算法
callJJ2 小时前
Spring Data Redis 两种编程模型详解:同步 vs 响应式
java·spring boot·redis·python·spring