PyTorch中的with torch.no_grad:节省计算资源与加速推理的关键在深度学习模型的训练和推理中,计算资源的合理利用对性能优化至关重要。相信对于刚开始学习深度学习并找模型复现的人来说应该会遇见一个比较常见的OOM(Out of Memory)问题,这个时候就需要我们想办法来降低模型所使用的显存,要么减小模型的batch_size,要么更换显存更大的设备。在这里我们就来说一下能够节省计算资源并加速推理的一个方法,它就是no_grad,PyTorch提供了一个名为with torch.no_grad的上下文管理器,它能够在推理阶段禁止计算图的构建,极大地节省计算资源。