神经网络中常用的激活函数(公式 + 函数图像)

激活函数是人工神经网络中的一个关键组件,负责引入非线性,从而使神经网络能够学习和表示复杂的非线性关系。没有激活函数,神经网络中的所有计算都是线性变换,而线性模型的表达能力有限,无法处理复杂的任务。

激活函数的作用

  • 引入非线性:通过将线性输入映射到非线性输出,使神经网络具备表示复杂函数的能力。

  • 控制输出范围:激活函数常将输出限制在某个范围内,如 [0,1] ,有助于稳定训练过程。

  • 提供梯度信息:激活函数对输入的导数用于反向传播,通过调整参数来优化网络性能。

常见激活函数

(一)ReLU(Rectified Linear Unit)

公式:

特点:

  • 输出范围:[0,+∞)

  • 优点:计算简单,高效;缓解了梯度消失问题。

  • 缺点:可能导致"神经元死亡"(Dead Neurons)问题,尤其是输入为负时。即当权重更新导致某些神经元输出恒为0时,这些神经元可能永远不被激活。

(二)Sigmoid

公式:

特点:

  • 输出范围:(0,1)

  • 非线性且平滑,对输入做"压缩",将其映射到 (0,1)区间。

特点:

  • 输出范围:(0,1)(0, 1)(0,1)

  • 常用于二分类问题的输出层。

  • 优点:平滑,可解释为概率。

  • 缺点:梯度在接近 0 和 1 时趋近于 0(梯度消失问题)。

(三)Tanh(Hyperbolic Tangent)

公式

特点:

  • 输出范围:(−1,1)(-1, 1)(−1,1)。

  • 优点:输出均值接近 0,适合深层网络的梯度传播。

  • 缺点:和 Sigmoid 一样,容易出现梯度消失问题。

(四)LReLU(Leaky ReLU)

公式:

特点:

  • 输出范围:[ -∞, +∞ )。
  • 优点:解决了 ReLU 的"神经元死亡"问题。
  • 缺点:引入了一个额外的超参数 α ,默认为 0.1。

**(五)**PReLU(Parametric ReLU)

公式:

特点:

  • 是 Leaky ReLU 的扩展版本, 但斜率 α 是可学习的参数。

  • 提高模型的灵活性和表现力。

**(六)**ELU(Exponential Linear Unit)

公式

(α>0, 通常为 1)

特点:

  • 输出范围:(−α,+∞)。

  • 优点:缓解梯度消失问题;负输出使均值更接近 0。

**(七)**Softmax

公式

特点:

  • 用于多分类问题的输出层。

  • 将输出归一化为概率分布。

**(八)**Swish

公式

特点:

  • 输出范围:(−∞,+∞)。

  • 优点:平滑,可微;在某些任务中表现优于 ReLU。

  • 缺点:计算稍复杂。

(九)GELU(Gaussian Error Linear Unit)

公式

Φ(x) 为标准正态分布的累积分布函数

特点:

  • Swish 的一种改进。

  • 常用于自然语言处理中的 Transformer 模型。

常用激活函数总结

隐藏层:常用 ReLU 或其变体(Leaky ReLU、PReLU、ELU)。

  • 简单网络:可以尝试 ReLU 或 Leaky ReLU。

  • 深度网络:推荐 Swish、GELU 或 ELU。

输出层

  • 二分类问题:Sigmoid。

  • 多分类问题:Softmax。

  • 回归问题:线性激活函数(或不使用激活函数)。

# 若文章对大噶有帮助的话,点个赞支持一下叭!

相关推荐
开出南方的花11 天前
深度学习-神经网络基础-激活函数与参数初始化(weight, bias)
人工智能·pytorch·深度学习·神经网络·激活函数·relu·参数初始化
开出南方的花1 个月前
机器学习篇-day04-逻辑回归-分类评估-混淆矩阵-精确率-召回率-F1值
机器学习·分类·逻辑回归·线性回归·scikit-learn·激活函数·分类算法
_pinnacle_5 个月前
从函数逼近角度理解神经网络、残差连接与激活函数
神经网络·激活函数·函数逼近·残差连接
愤怒的可乐7 个月前
[论文笔记]GAUSSIAN ERROR LINEAR UNITS (GELUS)
论文阅读·激活函数·gelu
愤怒的可乐7 个月前
[论文笔记]SEARCHING FOR ACTIVATION FUNCTIONS
swish·激活函数
叶庭云7 个月前
训练深度神经网络,使用反向传播算法,产生梯度消失和梯度爆炸问题的原因?
激活函数·反向传播·深度神经网络·梯度消失·梯度爆炸
知来者逆7 个月前
深度学习——常用激活函数解析与对比
深度学习·机器学习·计算机视觉·激活函数
PleaseBrave8 个月前
【神经网络 基本知识整理】(激活函数) && (梯度+梯度下降+梯度消失+梯度爆炸)
人工智能·深度学习·神经网络·激活函数·梯度下降·梯度消失·梯度爆炸
神奇的布欧9 个月前
深度学习中常用激活函数介绍
人工智能·pytorch·python·深度学习·机器学习·激活函数