目录
简介
cuDNN(CUDA Deep Neural Network library)是NVIDIA开发的一个深度学习GPU加速库,旨在提供高效、标准化的原语(基本操作)来加速深度学习框架(如TensorFlow、PyTorch等)在NVIDIA GPU上的运算。主要性能体现在以下四点:
- 优化深度学习操作:cuDNN提供了为深度学习任务高度优化的函数,如卷积、池化、归一化和激活函数等。这些函数经过精心设计和优化,可以在NVIDIA的GPU硬件上实现最佳性能。
- 利用GPU并行处理能力:cuDNN充分利用了NVIDIA GPU的并行处理能力,从而大大加速了神经网络的训练和推断过程。
- 动态优化:cuDNN能够根据输入数据的大小和网络结构,自动选择最合适的计算算法,以实现最佳性能。
- 支持多种计算精度:cuDNN支持FP32(32位浮点数)和FP16(16位浮点数)等多种计算精度。使用低精度计算可以在不显著降低模型精度的情况下,加速计算并减少显存占用。
下载
进入NVIDIA Developer官网 cuDNN 部分
依据系统情况和CUDA版本选择合适的cuDNN版本,Download Base Installer
下载完成后解压压缩包即可得到主要文件
配置
下载完成后cuDNN包含bin、include、lib三个文件夹
需要将bin、include、lib三个文件夹内的cuDNN配置文件对应放入CUDA根目录下的bin、include、lib文件夹中
参考CUDA根目录路径:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1
以bin文件夹为例,将对应的cudnnxxxx.dll文件全部放入即可