torch.backends.cudnn.benchmark 作用

相关参数

python 复制代码
torch.backends.cudnn.enabled
torch.backends.cudnn.benchmark
torch.backends.cudnn.deterministic


  • torch.backends.cudnn.benchmark
    • True:将会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法,进而实现网络的加速。适用场景是网络结构固定(不是动态变化的),网络的输入形状(包括 batch size,图片大小,输入的通道)是不变的
      • 只对卷积层做优化?
      • Loss 输入变化是否会受到影响?
    • False:不做优化(默认是False)
  • torch.backends.cudnn.enabled
    只要有cuda/cudnn,pytorch会默认开启cuda/cudnn后端
    只要尺寸固定,就可以通过启发式的思想去搜索一个合适的算法。
    要将PyTorch后端设置为cuDNN,你需要满足以下条件:
    1. 安装合适版本的NVIDIA驱动程序:确保你的计算机上安装了适用于你的GPU的最新NVIDIA驱动程序。
    2. 安装CUDA:下载并安装与你的GPU和操作系统兼容的CUDA版本。你可以从NVIDIA官方网站上获取CUDA的安装包。
    3. 安装cuDNN:下载并安装与你的CUDA版本兼容的cuDNN。你需要注册为NVIDIA开发者才能访问cuDNN的下载页面。
      一旦你完成了上述安装步骤,PyTorch将自动检测并使用CUDA和cuDNN作为后端。你可以通过以下代码验证是否成功设置了cuDNN作为PyTorch后端:
python 复制代码
import torch
print(torch.backends.cudnn.enabled)

如果输出结果为True,则表示cuDNN已成功设置为PyTorch的后端。这意味着PyTorch将利用cuDNN加速深度神经网络的计算。

  1. 额外知识
    卷积的实现算法
    • 多层循环,滑动窗计算
    • GEMM (General Matrix Multiply)
    • Winograd 算法
      特点:每种算法会有一些独特的优势。
相关推荐
taoqick2 小时前
对PosWiseFFN的改进: MoE、PKM、UltraMem
人工智能·pytorch·深度学习
小喵要摸鱼6 小时前
【Pytorch 库】自定义数据集相关的类
pytorch·python
懒大王今天不写代码9 小时前
为什么Pytorch中实例化模型会直接调用forward方法?
人工智能·pytorch·python
Francek Chen12 小时前
【现代深度学习技术】卷积神经网络 | 从全连接层到卷积
人工智能·pytorch·深度学习·神经网络·cnn
青丶空゛15 小时前
pytorch cnn 实现猫狗分类
pytorch·分类·cnn
zhulu50615 小时前
PyTorch 源码学习:阅读经验 & 代码结构
人工智能·pytorch·学习
安安爸Chris1 天前
【pytorch】weight_norm和spectral_norm
人工智能·pytorch·python
来自于狂人2 天前
基于Ubuntu+vLLM+NVIDIA T4高效部署DeepSeek大模型实战指南
人工智能·pytorch·python·语言模型
燃灯工作室2 天前
Transformer多头注意力并行计算原理与工业级实现:从数学推导到PyTorch工程优化
pytorch·深度学习·transformer
GarryLau2 天前
huggingface/pytorch-image-models
pytorch·python·huggingface