深度学习中常见的激活函数

1. Sigmoid函数

  • 范围:输出值在0到1之间。
  • 导数
  • 优点:简单直观,适用于二分类问题的输出层。
  • 缺点:在输入值较大或较小时,梯度会变得非常小(梯度消失),这会导致深层网络训练困难。同时,Sigmoid函数的输出不是以0为中心的,这可能会导致梯度下降过程中的不稳定。

应用场景:常用于二分类问题的输出层,早期的全连接层中也会使用。

2. Tanh(双曲正切函数)

  • 范围:输出值在-1到1之间。
  • 导数
  • 优点:相比Sigmoid,tanh函数的输出以0为中心,这有助于梯度的传播。对于输入值较小或较大的情况,梯度的消失问题相对较轻。
  • 缺点:当输入值非常大或非常小时,tanh函数的梯度仍然会接近于零(梯度消失)。

应用场景:适用于中间层的激活函数,尤其是在需要负值和正值的情况中。

3. ReLU()激活函数

  • 范围:输出值在0到正无穷之间。
  • 导数
  • 优点:计算简单,梯度计算效率高,减少了梯度消失的问题,有助于加速网络的收敛。
  • 缺点:可能导致"死亡神经元"问题,即大量神经元输出恒为0,无法进行有效的训练。

应用场景:广泛应用于隐藏层的激活函数,是现代深度学习模型中的默认选择。

相关推荐
SuniaWang几秒前
Milvus 深度解析:为 AI 而生的云原生向量数据库
数据库·人工智能·milvus
leo·Thomas2 分钟前
PentAGI-(AI自动化渗透)Docker环境部署
人工智能·自动化·渗透·pentagi
墨染天姬4 分钟前
【AI】conda常用指令
人工智能·conda
SCBAiotAigc5 分钟前
2026.2.25:conda与uv并存时,如何取消base激活
人工智能·python·conda·uv
kebijuelun8 分钟前
STAPO:通过“静音”极少数伪噪声 Token,稳定 LLM 强化学习
人工智能·深度学习·机器学习
weixin_397578028 分钟前
LLM应用开发十:本地部署Dify, Docker, Ollama
人工智能
zhangfeng11339 分钟前
快速验证哪个文件坏了 模型文件损坏或不完整大语言模型开发 .llm
人工智能·chrome·语言模型
Youngchatgpt11 分钟前
如何修复 ChatGPT“无法加载历史记录错误”(快速修复)
人工智能·chatgpt
tony36512 分钟前
pytorch分布式训练解释
人工智能·pytorch·分布式
CeshirenTester15 分钟前
从“自动化”到“智能化”,中间差的不只是ChatGPT
人工智能