torch.backends.cudnn.benchmark 作用

相关参数

python 复制代码
torch.backends.cudnn.enabled
torch.backends.cudnn.benchmark
torch.backends.cudnn.deterministic


  • torch.backends.cudnn.benchmark
    • True:将会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法,进而实现网络的加速。适用场景是网络结构固定(不是动态变化的),网络的输入形状(包括 batch size,图片大小,输入的通道)是不变的
      • 只对卷积层做优化?
      • Loss 输入变化是否会受到影响?
    • False:不做优化(默认是False)
  • torch.backends.cudnn.enabled
    只要有cuda/cudnn,pytorch会默认开启cuda/cudnn后端
    只要尺寸固定,就可以通过启发式的思想去搜索一个合适的算法。
    要将PyTorch后端设置为cuDNN,你需要满足以下条件:
    1. 安装合适版本的NVIDIA驱动程序:确保你的计算机上安装了适用于你的GPU的最新NVIDIA驱动程序。
    2. 安装CUDA:下载并安装与你的GPU和操作系统兼容的CUDA版本。你可以从NVIDIA官方网站上获取CUDA的安装包。
    3. 安装cuDNN:下载并安装与你的CUDA版本兼容的cuDNN。你需要注册为NVIDIA开发者才能访问cuDNN的下载页面。
      一旦你完成了上述安装步骤,PyTorch将自动检测并使用CUDA和cuDNN作为后端。你可以通过以下代码验证是否成功设置了cuDNN作为PyTorch后端:
python 复制代码
import torch
print(torch.backends.cudnn.enabled)

如果输出结果为True,则表示cuDNN已成功设置为PyTorch的后端。这意味着PyTorch将利用cuDNN加速深度神经网络的计算。

  1. 额外知识
    卷积的实现算法
    • 多层循环,滑动窗计算
    • GEMM (General Matrix Multiply)
    • Winograd 算法
      特点:每种算法会有一些独特的优势。
相关推荐
xier_ran2 小时前
【BUG问题】5060Ti显卡Windows配置Anaconda中的CUDA及Pytorch,sm_120问题
人工智能·pytorch·windows
郝学胜-神的一滴4 小时前
深度学习损失函数:从原理到实战之 Smooth L1 Loss
人工智能·pytorch·python·深度学习·机器学习·数据挖掘
MATLAB代码顾问20 小时前
Transformer时序预测:PatchTST原理与PyTorch实现
pytorch·深度学习·transformer
EnCi Zheng1 天前
04-缩放点积注意力代码实现 [特殊字符]
人工智能·pytorch·python
β添砖java2 天前
深度学习(17)卷积层里的多输入多输出通道
人工智能·pytorch·深度学习
江南十四行2 天前
CNN进阶:Batch Normalization与Layer Normalization对比 + 网络结构设计与PyTorch实现
pytorch·cnn·batch
早日退休!!!2 天前
PyTorch适配NPU
人工智能·pytorch·python
盼小辉丶2 天前
PyTorch强化学习实战——构建生成对抗网络生成Atari游戏画面
pytorch·游戏·生成对抗网络
ting94520002 天前
动手学深度学习(PyTorch版)深度详解(9):注意力机制
人工智能·pytorch·深度学习
eqwaak02 天前
PyTorch张量操作全攻略:从入门到精通
开发语言·人工智能·pytorch·python