神经网络激活函数

神经网络的激活函数(Activation Function)

神经网络可以用在分类问题和回归问题上,不过需要根据情况改变输出层的激活函数。一般而言,回归问题用恒等函数,分类问题用softmax函数。

神经网络的激活函数必须使用非线性函数,因为使用线性函数的话,加深神经网络的层数就再没有意义了:

  • 非线性: 当激活函数是非线性的时候(一阶导数不为常数),一个两层的神经网络就可以逼近基本上所有的函数了。如果激活函数是恒等激活函数的时候(即f(x)=x),就不满足这个性质了,而且如果MLP使用的是恒等激活函数,那么其实整个网络跟单层神经网络是等价的。
  • 可微性: 当优化方法是基于梯度的时候这个性质是必须的
  • 单调性: 当激活函数是单调的时候,单层网络能够保证是凸函数
  • f(x)≈x: 当激活函数满足这个性质的时候,如果参数的初始化是random的很小的值,那么神经网络的训练将会很高效;如果不满足这个性质,那么就需要很用心的去设置初始值。
  • 输出值的范围: 当激活函数输出值是有限的时候,基于梯度的优化方法会更加稳定,因为特征的表示受有限权值的影响更显著;当激活函数的输出是无限的时候,模型的训练会更加高效,不过在这种情况下,一般需要更小的learning rate.

softmax函数

分类问题中使用的softmax函数可以用下式表示:
y k = e a k ∑ i = 1 n e a i y_k = \frac{ \text e ^{a_k}}{ \sum_{i=1}^n \text e^{a_i}} yk=∑i=1neaieak

softmax函数在计算机的运算上有一定的缺陷。这个缺陷就是溢出问题。softmax函数的实现中要进行指数函数的运算,但是此时指数函数的值很容易变得非常大。比如, e 10 \text e^{10} e10的值会超过20000, e 100 \text e^{100} e100会变成一个后面有40多个0的超大值, e 1000 \text e^{1000} e1000的结果会返回一个表示无穷大的inf。如果在这些超大值之间进行除法运算,结果会出现"不确定"的情况。

计算机处理"数"时,数值必须在 4字节或 8字节的有限数据宽度内。这意味着数存在有效位数,也就是说,可以表示的数值范围是有限的。因此,会出现超大值无法表示的问题。这个问题称为溢出,在进行计算机的运算时必须(常常)注意。

阶跃函数(Step Function)

python 复制代码
import numpy as np
import matplotlib.pyplot as plt


def step_function(x: np.ndarray) -> np.ndarray[int]:
    return np.array(x > 0, dtype=np.int_)


if __name__ == "__main__":
    x = np.arange(-5, 5, 0.1)
    y = step_function(x)
    plt.ylim(-0.1, 1.1) # 指定y轴范围
    plt.plot(x, y, color = 'b', linewidth=1.5)
    plt.show()

Sigmoid函数

神经网络中经常使用的一个激活函数就是sigmoid函数:
h ( x ) = 1 1 + e − x h(x) = \frac{1}{1+\text e^{-x}} h(x)=1+e−x1

sigmoid函数的导数可以用其自身表示:
h ′ ( x ) = h ( x ) ( 1 − h ( x ) ) h\prime (x) = h(x) (1-h(x)) h′(x)=h(x)(1−h(x))

两种坐标尺度下的Sigmoid函数图如下,上图的横坐标为-5到5,这时的曲线变化较为平滑;下图横坐标的尺度足够大,可以看到,在x = 0点处Sigmoid函数看起来很像阶跃函数:

Sigmoid的缺点:

  • sigmoid有一个缺点,当输入非常大或者非常小的时候(saturation饱和),这些神经元的梯度是接近于0的。所以,需要尤其注意参数的初始值来尽量避免saturation的情况。如果初始值很大的话,大部分神经元可能都会处在saturation的状态而把gradient kill掉,这会导致网络变的很难学习。
  • Sigmoid 的 output 不是0均值,这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入。产生的一个结果就是:如果数据进入神经元的时候是正的(e.g. x>0 f=wTx+b),那么 w 计算出的梯度也会始终都是正的

2.4 修正线性单元,ReLU函数(Rectified Linear Unit Function)

ReLU函数在输入大于0时,直接输出该值;在输入小于等于0时,输

出0:
h ( x ) = { x x > 0 0 x ≤ 0 h(x) = \begin{cases} x & x > 0 \\ 0 &x \leq 0\end{cases} h(x)={x0x>0x≤0

ReLU函数的实现非常简单:

python 复制代码
import numpy as np
import matplotlib.pyplot as plt

def relu(x):
    return np.maximum(0, x)


if __name__ == "__main__":
    x = np.arange(-5, 5, .1)
    y = relu(x)
    plt.plot(x, y, color='b', linewidth=1.5)
    plt.show()
相关推荐
qq_15321452641 小时前
【2023工业3D异常检测文献】PointCore: 基于局部-全局特征的高效无监督点云异常检测器
深度学习·神经网络·目标检测·机器学习·计算机视觉·3d·视觉检测
大模型实战1 小时前
深入探索《AI大模型开发之路》:我的读书心得
人工智能
sp_fyf_20241 小时前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-09-25
人工智能·深度学习·算法·语言模型·自然语言处理
红米煮粥1 小时前
卷积神经网络-最优模型
人工智能·深度学习·cnn
赫连达1 小时前
大模型输入参数学习
人工智能·学习·ai·大模型
DA树聚1 小时前
人工智能-机器学习-深度学习-分类与算法梳理
人工智能·深度学习·算法·机器学习·语言模型·分类·transformer
杭州刘同学1 小时前
数据分析工具julius ai如何使用
人工智能·数据挖掘·数据分析
luthane2 小时前
ppython 实现k nearest neighbours k最近邻分类算法
人工智能·分类·数据挖掘
电气_空空2 小时前
自动驾驶电车难题的康德式道德决策
人工智能·机器学习·自动驾驶
宇来风满楼2 小时前
SNIDA
人工智能·深度学习·算法·机器学习·dnn