【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
哈__10 小时前
CANN内存管理与资源优化
人工智能·pytorch
DeniuHe12 小时前
Pytorch中的直方图
pytorch
哈__12 小时前
CANN多模型并发部署方案
人工智能·pytorch
DeniuHe13 小时前
Pytorch中的众数
人工智能·pytorch·python
DeniuHe1 天前
torch.distribution函数详解
pytorch
退休钓鱼选手1 天前
[ Pytorch教程 ] 神经网络的基本骨架 torch.nn -Neural Network
pytorch·深度学习·神经网络
DeniuHe1 天前
用 PyTorch 库创建了一个随机张量,并演示了多种张量取整和分解操作
pytorch
Network_Engineer1 天前
从零手写LSTM:从门控原理到PyTorch源码级实现
人工智能·pytorch·lstm
多恩Stone1 天前
【3D-AICG 系列-1】Trellis v1 和 Trellis v2 的区别和改进
人工智能·pytorch·python·算法·3d·aigc
2501_901147831 天前
PyTorch DDP官方文档学习笔记(核心干货版)
pytorch·笔记·学习·算法·面试