【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
Narrastory1 天前
明日香 - Pytorch 快速入门保姆级教程(五)
人工智能·pytorch·深度学习
如若1231 天前
flash-attn 安装失败?从报错到成功的完整排雷指南(CUDA 12.8 + PyTorch 2.7)
人工智能·pytorch·python
love530love2 天前
Windows 11 源码编译 vLLM 0.16 完全指南(CUDA 12.6 / PyTorch 2.7.1+cu126)
人工智能·pytorch·windows·python·深度学习·comfyui·vllm
兜兜风d'2 天前
PyTorch 深度学习实践——加载数据集
人工智能·pytorch·深度学习
一碗姜汤2 天前
torch.autograd.Function的apply()方法作用
人工智能·pytorch·深度学习
Galerkin码农选手2 天前
per_tenor_quant_fp8和per_token_quant_fp8算法解读
人工智能·pytorch·算法
Fleshy数模2 天前
基于PyTorch实现MNIST手写数字识别——卷积神经网络实战
人工智能·pytorch·cnn
兜兜风d'2 天前
PyTorch 深度学习实践——多分类问题
pytorch·深度学习·分类
Dxy12393102162 天前
PyTorch的StepLR详细介绍:深度学习训练的“定时减速”战术
人工智能·pytorch·深度学习
兜兜风d'2 天前
PyTorch 深度学习实践——RNN循环神经网络
人工智能·pytorch·rnn·深度学习