【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
却道天凉_好个秋2 小时前
pytorch(一):张量
人工智能·pytorch·python·深度学习
网上邻居YY4 小时前
深度学习DL 之 安装PyTorch·GPU版、CUDA(本人Anaconda、Python、PyCharm已提前安装好)
pytorch·经验分享·python·深度学习·pycharm·学习方法
ZhiqianXia4 小时前
Pytorch 学习笔记(21) : PyTorch Profiler
pytorch·笔记·学习
盼小辉丶4 小时前
PyTorch实战(41)——Hugging Face在PyTorch中的应用
人工智能·pytorch·深度学习·hugging face
ZhiqianXia4 小时前
PyTorch学习笔记(16):scheduler.py
pytorch·笔记·学习
断眉的派大星15 小时前
pytorch中view和reshape的区别
人工智能·pytorch·python
ZhiqianXia19 小时前
PyTorch 学习笔记(18) : lowering.py
pytorch·笔记·学习
断眉的派大星19 小时前
PyTorch 计算图与自动求导机制(超通俗精讲)
人工智能·pytorch·python
沪漂阿龙20 小时前
PyTorch 深度学习完全指南:从激活函数到房价预测实战
人工智能·pytorch·深度学习
沪漂阿龙20 小时前
PyTorch 张量与自动微分完全指南:从核心概念到实战训练
人工智能·pytorch·python