深度学习中常见的激活函数

1. Sigmoid函数

  • 范围:输出值在0到1之间。
  • 导数
  • 优点:简单直观,适用于二分类问题的输出层。
  • 缺点:在输入值较大或较小时,梯度会变得非常小(梯度消失),这会导致深层网络训练困难。同时,Sigmoid函数的输出不是以0为中心的,这可能会导致梯度下降过程中的不稳定。

应用场景:常用于二分类问题的输出层,早期的全连接层中也会使用。

2. Tanh(双曲正切函数)

  • 范围:输出值在-1到1之间。
  • 导数
  • 优点:相比Sigmoid,tanh函数的输出以0为中心,这有助于梯度的传播。对于输入值较小或较大的情况,梯度的消失问题相对较轻。
  • 缺点:当输入值非常大或非常小时,tanh函数的梯度仍然会接近于零(梯度消失)。

应用场景:适用于中间层的激活函数,尤其是在需要负值和正值的情况中。

3. ReLU()激活函数

  • 范围:输出值在0到正无穷之间。
  • 导数
  • 优点:计算简单,梯度计算效率高,减少了梯度消失的问题,有助于加速网络的收敛。
  • 缺点:可能导致"死亡神经元"问题,即大量神经元输出恒为0,无法进行有效的训练。

应用场景:广泛应用于隐藏层的激活函数,是现代深度学习模型中的默认选择。

相关推荐
RuiBo_Qiu1 分钟前
【LLM进阶-Agent】3.ReAct Agent 进阶--如何解决幻觉输出工具调用结果
人工智能·ai-native
skywalk81632 分钟前
看到有人提到:有网站使用分解质因数来区分人和机器,一种新兴的“反向CAPTCHA”策略
人工智能
陈天伟教授6 分钟前
人工智能应用- 机器做梦:03.回顾卷积神经网络
人工智能·神经网络·cnn
Lw中14 分钟前
模型忽略关键实体怎么办?
人工智能·大模型应用基础
致Great16 分钟前
AI Harness 工程:Agent 能跑起来的那一层到底是什么?
人工智能
木枷20 分钟前
Immersion in the GitHub Universe: Scaling Coding Aents to Mastery
人工智能·软件工程·swe
互联网江湖21 分钟前
鹿客科技IPO,陈彬不想“站在门外”
大数据·人工智能·物联网
Lw中24 分钟前
大模型生成内容出错
人工智能·rag·大模型应用开发
星爷AG I26 分钟前
14-9 够取与抓握(AGI基础理论)
人工智能·计算机视觉·agi