【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
Wishell201513 小时前
为什么深度学习和神经网络要使用 GPU?
pytorch
起名字什么的好难13 小时前
conda虚拟环境安装pytorch gpu版
人工智能·pytorch·conda
云空15 小时前
《探索PyTorch计算机视觉:原理、应用与实践》
人工智能·pytorch·python·深度学习·计算机视觉
灰太狼不爱写代码18 小时前
CUDA11.4版本的Pytorch下载
人工智能·pytorch·笔记·python·学习
轻口味1 天前
【每日学点鸿蒙知识】沙箱目录、图片压缩、characteristicsArray、gm-crypto 国密加解密、通知权限
pytorch·华为·harmonyos
Wishell20151 天前
Pytorch文件夹结构
pytorch
CITY_OF_MO_GY1 天前
Pytorch常用内置优化器合集
人工智能·pytorch·python
盛世隐者2 天前
【pytorch】循环神经网络
人工智能·pytorch
四口鲸鱼爱吃盐2 天前
Pytorch | 利用AI-FGTM针对CIFAR10上的ResNet分类器进行对抗攻击
人工智能·pytorch·python
唐小旭2 天前
python3.6搭建pytorch环境
人工智能·pytorch·python