sigmoid & ReLU 等激活函数总结

sigmoid


ReLU


sigoid和ReLU对比

1.sigmoid有梯度消失问题:当sigmoid的输出非常接近0或者1时,区域的梯度几乎为0,而ReLU在正区间的梯度总为1。如果Sigmoid没有正确初始化,它可能在正区间得到几乎为0的梯度。使模型无法有效训练。

2.sigmoid需要复杂的求幂运算。

相关推荐
励志成为糕手35 分钟前
循环神经网络(RNN):时序数据的深度学习模型
人工智能·rnn·深度学习·gru·lstm
yLDeveloper2 小时前
致深度学习小白:一文理解拟合问题与经典解决方案
机器学习·dive into deep learning
CoovallyAIHub3 小时前
超越YOLOv8/v11!自研RKM-YOLO为输电线路巡检精度、速度双提升
深度学习·算法·计算机视觉
BagMM4 小时前
FC-CLIP 论文阅读 开放词汇的检测与分割的统一
人工智能·深度学习·计算机视觉
金融小师妹10 小时前
基于NLP语义解析的联储政策信号:强化学习框架下的12月降息概率回升动态建模
大数据·人工智能·深度学习·1024程序员节
山顶夕景11 小时前
【RL】Does RLVR enable LLMs to self-improve?
深度学习·llm·强化学习·rlvr
cg501713 小时前
基于 Bert 基本模型进行 Fine-tuned
人工智能·深度学习·bert
6***x54513 小时前
C在机器学习中的ML.NET应用
人工智能·机器学习
甄心爱学习14 小时前
数据挖掘-聚类方法
人工智能·算法·机器学习
长桥夜波16 小时前
机器学习日报21
人工智能·机器学习