torch.backends.cudnn.benchmark 作用

相关参数

python 复制代码
torch.backends.cudnn.enabled
torch.backends.cudnn.benchmark
torch.backends.cudnn.deterministic


  • torch.backends.cudnn.benchmark
    • True:将会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法,进而实现网络的加速。适用场景是网络结构固定(不是动态变化的),网络的输入形状(包括 batch size,图片大小,输入的通道)是不变的
      • 只对卷积层做优化?
      • Loss 输入变化是否会受到影响?
    • False:不做优化(默认是False)
  • torch.backends.cudnn.enabled
    只要有cuda/cudnn,pytorch会默认开启cuda/cudnn后端
    只要尺寸固定,就可以通过启发式的思想去搜索一个合适的算法。
    要将PyTorch后端设置为cuDNN,你需要满足以下条件:
    1. 安装合适版本的NVIDIA驱动程序:确保你的计算机上安装了适用于你的GPU的最新NVIDIA驱动程序。
    2. 安装CUDA:下载并安装与你的GPU和操作系统兼容的CUDA版本。你可以从NVIDIA官方网站上获取CUDA的安装包。
    3. 安装cuDNN:下载并安装与你的CUDA版本兼容的cuDNN。你需要注册为NVIDIA开发者才能访问cuDNN的下载页面。
      一旦你完成了上述安装步骤,PyTorch将自动检测并使用CUDA和cuDNN作为后端。你可以通过以下代码验证是否成功设置了cuDNN作为PyTorch后端:
python 复制代码
import torch
print(torch.backends.cudnn.enabled)

如果输出结果为True,则表示cuDNN已成功设置为PyTorch的后端。这意味着PyTorch将利用cuDNN加速深度神经网络的计算。

  1. 额外知识
    卷积的实现算法
    • 多层循环,滑动窗计算
    • GEMM (General Matrix Multiply)
    • Winograd 算法
      特点:每种算法会有一些独特的优势。
相关推荐
xwill*3 小时前
分词器(Tokenizer)-sentencepiece(把训练语料中的字符自动组合成一个最优的子词(subword)集合。)
开发语言·pytorch·python
cvyoutian9 小时前
解决 PyTorch 大型 wheel 下载慢、超时和反复重下的问题
人工智能·pytorch·python
狐狸11711 小时前
解决在win10找不到site-packages\torch\lib\shm.dll“ or one of its dependencies 问题
pytorch·conda·pip
int WINGsssss13 小时前
【无标题】
pytorch·分布式·python
人工小情绪15 小时前
pytorch nn.CrossEntropyLoss
人工智能·pytorch
xqlily15 小时前
PyTorch:深度学习研究的核心引擎(下)
人工智能·pytorch·深度学习
AndrewHZ15 小时前
【芯芯相印】什么是算法定点化?
pytorch·算法·芯片设计·模型量化·定点化·芯片算法·逻辑电路
leo030816 小时前
深度解析Hugging Face Accelerate:`Trainer`背后的“隐形”分布式引擎
pytorch·大模型·llm·ddp
xqlily18 小时前
PyTorch:深度学习研究的核心引擎(上)
人工智能·pytorch·深度学习
nwsuaf_huasir19 小时前
深度学习2-pyTorch学习-第一个神经网络
pytorch·深度学习·学习