sigmoid & ReLU 等激活函数总结

sigmoid


ReLU


sigoid和ReLU对比

1.sigmoid有梯度消失问题:当sigmoid的输出非常接近0或者1时,区域的梯度几乎为0,而ReLU在正区间的梯度总为1。如果Sigmoid没有正确初始化,它可能在正区间得到几乎为0的梯度。使模型无法有效训练。

2.sigmoid需要复杂的求幂运算。

相关推荐
XX風41 分钟前
4.1 spectral clusterig
人工智能·机器学习·支持向量机
咩咩不吃草1 小时前
【逻辑回归】:从模型训练到评价
算法·机器学习·逻辑回归
肾透侧视攻城狮1 小时前
《深入PyTorch数据引擎:自定义数据封装、高效加载策略与多源融合实战》
人工智能·神经网络·自定义dataset·dataloader 加载数据·常见的图像预处理操作·图像数据增强·加载 mnist 数据集
Loacnasfhia92 小时前
【深度学习】【目标检测】YOLO11-C3k2-Faster-EMA模型实现草莓与番茄成熟度及病害识别系统
人工智能·深度学习·目标检测
张祥6422889042 小时前
二次型:从线性代数到测量平差的桥梁
线性代数·算法·机器学习
高洁012 小时前
基于物理交互的具身智能决策框架设计
算法·机器学习·数据挖掘·transformer·知识图谱
爱吃泡芙的小白白2 小时前
机器学习输出层设计精要:从原理到产业实践
人工智能·机器学习
XX風2 小时前
5.1 deep learning introduction
人工智能·深度学习
m0_564876842 小时前
分布式训练DP与DDP
人工智能·深度学习·算法
纤纡.2 小时前
逻辑回归实战进阶:交叉验证与采样技术破解数据痛点(一)
算法·机器学习·逻辑回归