深度学习:激活函数,优化器

1,激活函数

**神经元会对化学物质的刺激进行,当达到一定程度的时候,神经元才会兴奋,并向其他神经元发送信息。****神经网络中的激活函数就是用来判断我们所计算的信息是否达到了往后面传输的条件。激活函数的目的主要是为了在神经网络中加入非线性因素,这样就加强了网络的表示能力,获得强大的学习能力和拟合能力。****如果神经网络只使用线性激活函数,那么整个网络将只是多个线性操作的组合,无法处理非线性数据或者学习非线性映射。**神经网络解决问题的能力与网络所采用的激活函数关系很大。

1.1,Sigmoid

sigmod函数的输出是在 开区间,丛神经科学角度来看,中间斜率较大部分即为神经元敏感区,两边斜率较平缓的地方即为抑制区。

  • 输出范围:输出值始终在 (0, 1) 区间内,这使得sigmoid函数在输出概率或者用于二分类问题时非常有用。现在使用到 sigmod 很少,基本上只有在做二分类(0,1)时的输出层才会使用。

  • 平滑连续:sigmoid函数在整个定义域内都是光滑且连续的,这有助于在优化过程中计算梯度。

  • 中心对称:sigmoid函数关于直线 y = x 对称,这意味着它能够处理正负输入值。

  • 梯度问题:当输入值 x 非常大或非常小的时候,sigmoid函数的梯度接近于0,这可能导致梯度消失问题,从而使得在神经网络的深层中梯度难以传播。

  • 非零中心:sigmoid函数的输出不是以 0 为中心的,这可能会导致网络在优化过程中花费更多的时间和资源来调整权重。

  • 计算开销:相比于某些激活函数(如ReLU),sigmoid函数的计算复杂度较高,因为它涉及到指数运算。

1.2,tanh

双曲正切函数,tanh的输出区间是在 之间,而整个函数是以0为中心。

tanh 函数具有良好的求导性质:

**sigmoid和tanh都有个问题就是容易导致梯度消失的现象发生,这是由于两者的导数在 x 很大或很小的时候,都容易趋近于0,从而导致梯度消失的现象发生。****但是好在tanh是以 0 为中心点,如果使用tanh作为激活函数,还能起到归一化(均值为0)的效果。**一般二分类问题中,隐藏层用 tanh 函数,输出层用 sigmod 函数,但是随着 Relu 的出现所有的隐藏层基本上都使用 relu 来作为激活函数了。

1.3,ReLU

【ReLU函数】

  • **稀疏激活:**由于ReLU在负半轴的输出为0,这意味着在任何时候,大约有一半的神经元(假设输入是零均值的)不会被激活,这种稀疏性有助于减少计算量和防止过拟合。

  • **非线性:**ReLU引入了非线性,使得神经网络能够学习和模拟复杂的函数。

  • **计算效率高:**由于其简单的数学形式,ReLU的计算非常快速,这有助于加快神经网络的训练和推理速度。

  • **缓解梯度消失问题:**相比于sigmoid或tanh函数,ReLU在正区间的梯度恒定为1,这有助于缓解梯度消失问题,使得深层网络的训练变得更加可行。

**神经元死亡问题:****当输入是负数的时,ReLU是完全不被激活的,会丢失一部分信息,这就意味着在传播过程中,输入负数则梯度为 0,这个和sigmod函数、tanh函数有一样的问题。**但是实际的运用中,该缺陷的影响不是很大。

**ReLU在 0 处不可导也可以用于梯度学习,**这是因为实际情况中在0处的导数通常会返回左导数或右导数的其中一个,从而避免这个问题。

  • Leaky ReLU:Leaky ReLU是对ReLU的改进,当输入为负时,Leaky ReLU引入了一个小的斜率,而不是直接输出0。这有助于解决ReLU在负区间的输出为0的问题。

  • Parametric ReLU (PReLU):PReLU是Leaky ReLU的一种扩展,它引入了一个可学习的参数,用于控制负区间的斜率。这使得神经网络能够自适应地学习负区间的激活函数。

  • Exponential Linear Unit (ELU):ELU是一种类似ReLU的激活函数,它在负区间引入了一个指数项,使得负区间的输出更加平滑。ELU在一些情况下可以提供更好的性能。

  • Scaled Exponential Linear Unit (SELU):SELU是ELU的一种变种,它引入了缩放参数,使得SELU在一定条件下能够保持输入的均值和方差不变,从而有助于稳定训练。

  • **GELU:**GELU是一种基于高斯误差线性单元的激活函数,它在一些情况下能够提供更好的性能。GELU的数学形式是一个带有误差函数的平滑函数。

1.4,Swish

**【Swish】**Swish的名称可能来源于其形状与鱼的尾巴相似,给人一种平滑、流畅的联想,这与"swish"这个词的含义相吻合。

  • **非线性:**Swish引入了非线性,使得神经网络能够学习和模拟复杂的函数。
  • **平滑性:**Swish函数在整个定义域内都是光滑且连续的,这有助于在优化过程中计算梯度。
  • **自适应性:**Swish函数的输出取决于输入值,这使得它能够自适应地调整激活函数的形状。

1.5,GELU

**【GELU】**输出平滑、近似"软门控",对小输入抑制、对大输入线性放行,梯度连续稳定。相比 ReLU,训练更稳、收敛更好,尤其适合深层 Transformer。按输入属于"有用信息"的概率来放行信号

其中 是标准正态分布的累计分布函数。

工程上近似

1.6,SwiGLU

**【SwiGLU】**SwiGLU 是一种结合了 Swish 和 GLU 的激活函数,它结合了 Swish 的平滑性和 GLU 的门控机制,能够有效地学习输入数据的不同特征。

  • **非线性能力:**SwiGLU 通过 Swish 激活函数引入非线性,这使得模型能够学习和表示更复杂的数据模式 。

  • **门控特性:**GLU 的门控机制允许模型动态地调整信息流,使得模型在处理长序列数据时能够更好地捕捉长距离依赖关系 。

  • **梯度稳定性:**SwiGLU 在负输入区域提供非零的梯度,有助于缓解梯度消失问题,从而提高模型的训练稳定性 。

  • **可学习参数:**SwiGLU 的参数可以通过训练学习,使得模型可以根据不同任务和数据集动态调整,增强了模型的灵活性和适应性 。

  • **计算效率:**相比于一些复杂的激活函数,SwiGLU 在保持性能的同时,具有较高的计算效率,这对于大规模语言模型的训练和推理尤为重要 。

2,优化器

2.1,SGD,ASGD

**【SGD】**随机梯度下降在每次迭代中只使用一个或一小批样本来计算梯度,然后更新模型参数。这样做可以减少每次迭代的计算成本,并有助于算法逃离局部最小值。

  • 表示在时间步 的模型参数(可以是权重和偏置);
  • 表示学习率,用于控制参数更新的步长;
  • 表示损失函数 对参数 在样本 处的梯度;

**【非凸优化问题】**目标函数具有多个局部最小值的情况,这种情况下,SGD可能会陷入局部最小值,并且很难跳出。这是因为SGD在每次迭代中只使用一个或一小批样本来计算梯度,可能导致梯度的方向不准确,从而影响参数更新的方向。

**【ASGD】**对多个随机梯度进行平均。

  • **动量项的计算方式:**Momentum使用指数加权平均来计算动量,而ASGD使用简单算术平均;
  • **学习率的调整:**在Momentum中,学习率是固定的,或者可以随着时间进行调整;而在ASGD中,学习率随着迭代次数的增加而自然减小;
  • **收敛行为:**Momentum通常在高曲率区域提供更好的加速效果,而ASGD则通过平均历史梯度来平滑梯度更新,减少噪声的影响。

2.2,Momentum

**【指数加权平均】**用于计算一组数值的加权平均,其中最近的数据点被赋予更高的权重。对异常值(outliers)不太敏感,因为每个数据点的权重都会随着时间的推移而指数级减少。这使得它在处理含有噪声的数据时非常有用。

  • 是在时间点 的指数加权平均值。
  • 是介于 0 和 1 之间的衰减系数(decay factor),决定了历史数据的权重。
  • 是在时间点 的观测值。

**【Momentum】**通过引入动量项来加速梯度下降算法的收敛并提高其稳定性。

  • 加速收敛:通过累积历史梯度,可以在相关方向上加速参数更新;
  • 抑制振荡:有助于减少训练过程中的震荡,特别是在目标函数的平坦区域或接近最小值时;
  • 跳出局部最小值:在某些情况下,动量可以帮助算法跳出局部最小值,从而找到更好的全局最小值。
  • 是时间步 的动量项,这个动量项是通过指数加权平均的方式计算得到的;
  • 是动量衰减系数,通常设置在 之间,如 0.9 或 0.99;
  • 是学习率;
  • 是在参数 处的损失函数梯度。

2.3,Rprop

**【Rprop】**仅使用梯度的符号来计算更新,而不是梯度的大小,从而动态地为每个权重独立地调整步长。

  • 初始化: 为每个权重 初始化学习率 和变化量 (很小的正数)。
  • 更新规则:
    • 如果 (当前梯度)和 (上一时刻的梯度)同号,则增加学习率:
    • 如果 异号或 为 0,则减少学习率:
    • 如果 都为 0,则重置学习率:
  • 权重更新: 是梯度符号。

【特点】

  • **自适应学习率:**Rprop算法为每个权重单独设置学习率,而不是使用全局学习率。这意味着每个权重的学习率可以根据其历史梯度信息进行调整;

  • **快速收敛:**由于学习率的自适应调整,Rprop通常能够更快地收敛;

  • **鲁棒性:**Rprop算法对初始学习率的选择不敏感,这使得它在不同的问题上具有较好的鲁棒性。

2.4,AdaGrad,AdaDelta,RMSprop

**【AdaGrad】**为每个参数独立地调整学习率,使得不频繁更新的参数可以获得更大的学习率,而频繁更新的参数则获得较小的学习率。

  • 初始化: 为每个参数 初始化梯度平方和
  • 梯度计算: 在每次迭代中,计算参数 的梯度
  • 更新梯度平方和:
  • **计算自适应学习率:**是一个很小的数,用于防止分母为零。
  • 参数更新:

【特点】

  • 自适应学习率:Adagrad为每个参数单独设置学习率,这意味着每个参数的学习率可以根据其历史梯度信息进行调整。

  • 处理稀疏数据:Adagrad特别适合处理稀疏数据,因为它能够为频繁更新的参数减小学习率,为不常更新的参数增大学习率。

  • 不需要手动调整学习率:Adagrad不需要手动设置学习率,它会自动根据参数的更新历史来调整学习率。

  • 学习率递减,可能导致早期停止,特别是在处理非凸问题时。

  • 对于非常大的数据集,累积的梯度平方和可能变得非常大,导致学习率过小。
    **【AdaDelta】**解决AdaGrad算法中学习率单调递减的问题,通过限制累积梯度的窗口大小,并且不需要设置全局学习率,因为它会根据之前的参数更新量来自适应地调整学习率。

  • 初始化两个状态变量: 累积平方梯度的指数加权平均变量 和累积更新量的指数加权平均变量

  • 在每次迭代中,计算梯度

  • 更新累积平方梯度的指数加权平均 是计算平方梯度的指数加权平均的系数(通常设为0.9)

  • 计算参数更新量

  • 更新参数

  • 更新累积更新量的指数加权平均

【特点】

  • 自适应学习率,不需要手动设置。

  • 适合处理稀疏数据。

  • 加速模型的收敛过程。

  • 对超参数 敏感。

  • 在某些情况下可能导致不稳定的学习过程
    **【RMSprop】**使用梯度的平方的指数移动平均值来调整每个参数的学习率,从而加快学习速度并减少训练过程中的震荡。这种方法特别适合处理非凸优化问题。

  • 初始化参数 ,设置学习率 ,衰减系数 (通常设为0.9),以及数值稳定性的小常数

  • 在每次迭代中,计算参数 的梯度

  • 更新累积平方梯度的指数加权移动平均

  • 计算参数更新量:

  • 更新参数

【特点】

  • **AdaGrad:**累积所有过去的梯度平方(无遗忘因子)。这意味着它会不断地累积梯度信息,导致学习率随着时间逐渐减小,可能在后期变得过小,以至于无法继续有效更新;

  • **RMSprop:**使用指数加权平均来累积过去的梯度平方(有遗忘因子)。这种方式使得算法对最近的梯度给予更多的权重,而对旧的梯度逐渐"遗忘",从而避免了学习率过快减小的问题。

2.5,Adam,Nadam,AdamW,Radam

【Adam】自适应矩估计结合了 AdaGrad 算法和 RMSprop 算法的优点,通过计算梯度的一阶矩估计(均值)和二阶矩估计(未中心化的方差)来调整每个参数的学习率,从而实现自适应学习率。

  • **动量:**类似于物理中的动量概念,它帮助算法在优化过程中增加稳定性,并减少震荡。
  • **自适应学习率:**Adam为每个参数维护自己的学习率,这使得算法能够更加灵活地适应参数的更新需求。
  • **偏差修正:**由于算法使用了指数加权移动平均来计算梯度的一阶和二阶矩估计,因此在初始阶段会有偏差。Adam通过偏差修正来调整这一点,使得估计更加准确。

【更新规则】

  • 初始化一阶矩估计(动量) 和二阶矩估计(梯度平方的移动平均) 为 0,以及时间步长

  • 在每次迭代中,计算梯度

  • 更新一阶矩估计 和二阶矩估计

  • 计算偏差修正的一阶矩估计 和二阶矩估计

  • 更新参数:
    **【Nadam】**结合了Nesterov动量(NAG)和Adam优化算法的优化器。它旨在提高优化过程的性能,特别是在深度学习中。

  • 同 Adam

  • 计算 Nadam 特有的修正动量:

  • 更新参数:

【特点】

  • 结合了Nesterov动量和Adam算法的优点,既有自适应学习率,又有Nesterov动量,可以更快地收敛。对于深度学习模型的优化效果较好。

  • 可能会导致优化过程过于复杂,从而增加了计算负担。
    **【AdamW】**在原始的Adam算法基础上进行了改进,特别是在处理权重衰减(Weight Decay)方面。

  • **改进的权重衰减处理:**AdamW通过将权重衰减应用于参数更新步骤,而不是梯度计算步骤,解决了原始Adam算法在处理权重衰减时的问题。这种方法使得权重衰减的效果更加一致和有效;

  • **减少过拟合:**权重衰减是一种正则化技术,有助于减少模型的过拟合。AdamW通过合理地应用权重衰减,可以提高模型的泛化能力;

  • **保持动量和自适应学习率的优点:**AdamW保留了Adam算法的动量(Momentum)和自适应学习率(AdaGrad)的优点,这有助于加速收敛并适应不同的参数更新需求。

  • **超参数调整:**AdamW引入了额外的超参数(如权重衰减系数),这可能需要更多的调参工作来找到最优的超参数组合;

  • **对学习率的敏感性:**AdamW对学习率的选择可能比SGD等其他优化器更敏感,不恰当的学习率设置可能导致训练效果不佳。

**【Radam】**是一种优化算法,它是Adam优化器的一个变种,旨在解决Adam在不同数据集和任务中性能不一致的问题。Radam通过动态调整学习率来适应不同的训练阶段,从而提高模型的训练效果。

  • **动态调整学习率:**Radam根据训练的进展动态调整学习率,以适应不同阶段的训练需求。

  • **适应性:**Radam能够根据训练数据的特点自动调整优化策略,提高了对不同数据集和任务的适应性。

  • **简单易用:**Radam的实现与Adam类似,易于在现有的深度学习框架中使用。

【更新规则】

  • 同 Adam
  • 根据训练阶段动态调整学习率:
  • 更新参数:

【特点】

  • 动态调整学习率,提高了优化的效率。
  • 适应性强,适用于多种数据集和任务。
  • 相对于原始的Adam,Radam的实现稍微复杂一些。
  • 需要调整的超参数更多,可能会增加调参的难度。
相关推荐
蜡笔小新..2 小时前
从零学习 RL :初识强化学习
人工智能·强化学习·rl
m0_603888712 小时前
More Images, More Problems A Controlled Analysis of VLM Failure Modes
人工智能·算法·机器学习·ai·论文速览
ICscholar2 小时前
ROC曲线解读
人工智能·机器学习
丝斯20112 小时前
AI学习笔记整理(44)——大规模预训练模型数据处理管道Pipeline
人工智能·笔记·学习
向量引擎小橙2 小时前
Sora开启“世界模拟器”新纪元:谁将定义AI的物理世界?
人工智能
OpenCSG2 小时前
AgenticOps x CSGHub:企业智能体走向规模化生产的工程底座
大数据·人工智能
weixin_437988122 小时前
范式智能获评年度科技创新新锐公司
人工智能·科技
易营宝2 小时前
高效的跨境电商广告优化系统:易营宝广告投放实操指南
大数据·开发语言·人工智能·php
HyperAI超神经2 小时前
实现高选择性底物设计,MIT联手哈佛用生成式AI发现全新蛋白酶切割模式
人工智能·深度学习·机器学习·开源·ai编程