sigmoid & ReLU 等激活函数总结

sigmoid


ReLU


sigoid和ReLU对比

1.sigmoid有梯度消失问题:当sigmoid的输出非常接近0或者1时,区域的梯度几乎为0,而ReLU在正区间的梯度总为1。如果Sigmoid没有正确初始化,它可能在正区间得到几乎为0的梯度。使模型无法有效训练。

2.sigmoid需要复杂的求幂运算。

相关推荐
数据智能老司机3 小时前
PyTorch 深度学习——使用张量表示真实世界数据
pytorch·深度学习
数据智能老司机7 小时前
PyTorch 深度学习——它始于一个张量
pytorch·深度学习
yiyu07161 天前
3分钟搞懂深度学习AI:自我进化的最简五步法
人工智能·深度学习
yiyu07162 天前
3分钟搞懂深度学习AI:反向传播:链式法则的归责游戏
人工智能·深度学习
哥布林学者2 天前
高光谱成像(四)最小噪声分数变换 MNF
机器学习·高光谱成像
CoovallyAIHub2 天前
语音AI Agent编排框架!Pipecat斩获10K+ Star,60+集成开箱即用,亚秒级对话延迟接近真人反应速度!
深度学习·算法·计算机视觉
Narrastory2 天前
明日香 - Pytorch 快速入门保姆级教程(三)
pytorch·深度学习
yiyu07163 天前
3分钟搞懂深度学习AI:梯度下降:迷雾中的下山路
人工智能·深度学习
哥布林学者3 天前
高光谱成像(三)主成分分析 PCA
机器学习·高光谱成像