【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
Vertira7 分钟前
如何在 PyTorch 中自定义卷积核参数(亲测,已解决)
人工智能·pytorch·python
DartistCode2 小时前
动手学深度学习pytorch(第一版)学习笔记汇总
pytorch·深度学习·学习
yzx9910132 小时前
基于 PyTorch 和 OpenCV 的实时表情检测系统
人工智能·pytorch·opencv
Takina~4 小时前
python打卡day48
pytorch·python·深度学习
YYXZZ。。8 小时前
PyTorch——搭建小实战和Sequential的使用(7)
人工智能·pytorch·python
四川兔兔8 小时前
pytorch 与 张量的处理
人工智能·pytorch·python
SpikeKing13 小时前
Server - 使用 Docker 配置 PyTorch 研发环境
pytorch·docker·llm
weixin_4487816220 小时前
DenseNet算法 实现乳腺癌识别
pytorch·深度学习·神经网络
2301_805054561 天前
Python训练营打卡Day48(2025.6.8)
pytorch·python·深度学习
scdifsn2 天前
动手学深度学习12.7. 参数服务器-笔记&练习(PyTorch)
pytorch·笔记·深度学习·分布式计算·数据并行·参数服务器