sigmoid & ReLU 等激活函数总结

sigmoid


ReLU


sigoid和ReLU对比

1.sigmoid有梯度消失问题:当sigmoid的输出非常接近0或者1时,区域的梯度几乎为0,而ReLU在正区间的梯度总为1。如果Sigmoid没有正确初始化,它可能在正区间得到几乎为0的梯度。使模型无法有效训练。

2.sigmoid需要复杂的求幂运算。

相关推荐
末世灯光8 小时前
时间序列入门第一问:它和普通数据有什么不一样?(附 3 类典型案例)
人工智能·python·机器学习·时序数据
Gitpchy9 小时前
Day 20 奇异值SVD分解
python·机器学习
weixin_4296302610 小时前
实验二-决策树-葡萄酒
算法·决策树·机器学习
墨利昂10 小时前
Transformer架构:深度学习序列建模的革命性突破
深度学习·架构·transformer
我是李武涯10 小时前
PyTorch Dataloader工作原理 之 default collate_fn操作
pytorch·python·深度学习
无风听海11 小时前
神经网络之计算图repeat节点
人工智能·深度学习·神经网络
吃饭睡觉发paper11 小时前
Learning Depth Estimation for Transparent and Mirror Surfaces
人工智能·机器学习·计算机视觉
MYX_30911 小时前
第三章 线型神经网络
深度学习·神经网络·学习·算法
Aaplloo13 小时前
机器学习作业七
人工智能·机器学习
Cathy Bryant14 小时前
矩阵乘以向量?向量乘以向量?
笔记·神经网络·考研·机器学习·数学建模