激活函数总结(十九):激活函数补充(ISRU、ISRLU)

激活函数总结(十九):激活函数补充

  • [1 引言](#1 引言)
  • [2 激活函数](#2 激活函数)
    • [2.1 Inverse Square Root Unit (ISRU)激活函数](#2.1 Inverse Square Root Unit (ISRU)激活函数)
    • [2.2 Inverse Square Root Linear Unit (ISRLU)激活函数](#2.2 Inverse Square Root Linear Unit (ISRLU)激活函数)
  • [3. 总结](#3. 总结)

1 引言

前面的文章中已经介绍了介绍了一系列激活函数 (SigmoidTanhReLULeaky ReLUPReLUSwishELUSELUGELUSoftmaxSoftplusMishMaxoutHardSigmoidHardTanhHardswishHardShrinkSoftShrinkTanhShrinkRReLUCELUReLU6GLUSwiGLUGTUBilinearReGLUGEGLUSoftminSoftmax2dLogsoftmaxIdentityLogSigmoidBent IdentityAbsoluteBipolarBipolar SigmoidSinusoidCosineArcsinhArccoshArctanhLeCun TanhTanhExpGaussianGCUASUSQUNCUDSUSSUSReLUBReLUPELUPhishRBFSQ-RBF)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:

2 激活函数

2.1 Inverse Square Root Unit (ISRU)激活函数

Inverse Square Root Unit(ISRU)是一种非线性激活函数,它在神经网络中用于引入非线性变换。其数学表达式和数学图像分别如下所示:
I S R U ( x ) = x 1 + a x 2 ISRU(x) = \frac{x}{\sqrt{1+ax^2}} ISRU(x)=1+ax2 x
优点:

  • 非线性性质 : ISRU 激活函数引入了非线性性质,有助于神经网络模型捕捉数据中的复杂模式。
  • 平滑性 : ISRU 在输入值的范围内具有连续和平滑的性质,这对于梯度计算和反向传播有益。
  • 参数调整 : 通过调整参数 α,您可以自由地控制激活函数的形状,使其适应不同的数据分布和任务需求。
  • 避免梯度消失 : 相对于一些激活函数,如 Sigmoid 和 Tanh,ISRU 在输入较大的范围内可以避免梯度消失问题。

缺点:

  • 计算复杂性 : ISRU 涉及平方根的计算,这可能在计算上相对于一些简单的激活函数(如 ReLU)而言较为复杂。
  • 参数调整 : 调整参数 α 需要更多的实验调优,以找到最佳参数设置。
  • 可解释性 : ISRU 不是一个广泛使用的激活函数,因此可能需要更多的背景知识来解释其作用和效果。

该激活函数在当前环境下很少使用。。。。

2.2 Inverse Square Root Linear Unit (ISRLU)激活函数

Inverse Square Root Linear Unit(ISRLU)是一种非线性激活函数,它是 Rectified Linear Unit(ReLU)的一种扩展。ISRLU 激活函数引入了一个可学习的参数,使得在输入为时,激活函数的输出与输入之间存在非线性关系。其数学表达式和数学图像分别如下所示:
I S R L U ( x ) = { x 1 + a x 2 , if x < 0 x , if x ≥ 0 ISRLU(x) = \begin{cases} \frac{x}{\sqrt{1+ax^2}}, & \text{if } x < 0 \\ x, & \text{if } x \geq 0 \\ \end{cases} ISRLU(x)={1+ax2 x,x,if x<0if x≥0
优点:

  • 非线性性质: ISRLU 激活函数在输入为时引入了非线性性质,有助于神经网络模型更好地捕捉数据中的复杂模式。
  • 平滑性: ISRLU 在输入为负时是平滑的,这对于梯度计算和反向传播有益
  • 自适应性: 参数 ( α \alpha α) 可以通过训练适应不同的数据分布,使 ISRLU 的负半部分适应数据的特性。
  • 避免梯度消失: 相对于一些激活函数,如 Sigmoid 和 Tanh,ISRLU 在输入较大的范围内可以避免梯度消失问题。

缺点:

  • 计算复杂性: ISRLU 涉及平方根的计算,这可能在计算上相对于一些简单的激活函数(如 ReLU)而言较为复杂。
  • 参数调整: 调整参数 ( α \alpha α) 需要更多的实验调优,以找到最佳参数设置。
  • 可解释性: ISRLU 不是一个广泛使用的激活函数,因此可能需要更多的背景知识来解释其作用和效果。

该激活函数在当前环境下很少使用。。。。但是从其性质上可以感觉到是一个不错的激活函数,可能会在某些应用中得到应用。。。。

3. 总结

到此,使用 激活函数总结(十九) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。

相关推荐
蓝色的杯子3 分钟前
Python面试30分钟突击掌握
python
wal13145203 分钟前
OpenClaw v2026.4.8 发布:记忆系统重大升级 + 多项安全修复
人工智能·安全·openclaw
Deepoch8 分钟前
VLA 端侧智能赋能:Deepoc 开发板重构除草机器人自主作业能力
人工智能·科技·机器人·具身模型·deepoc·除草
m0_3722570213 分钟前
bert和LLM训练的时候输入输出的格式是什么有什么区别
人工智能·深度学习·bert
紧固视界21 分钟前
2026上海紧固件专业展,紧固件设备集中展示平台
大数据·人工智能·上海紧固件展·紧固件展·上海紧固件专业展
qq_208154088523 分钟前
瑞树6代流程分析
javascript·python
杨夏同学28 分钟前
AI入门——如何计算神经网络的参数
人工智能·深度学习·神经网络
好运的阿财33 分钟前
大模型热切换功能完整实现指南
人工智能·python·程序人生·开源·ai编程
爱码小白38 分钟前
数据库多表命名的通用规范
数据库·python·mysql
互联网江湖39 分钟前
千问闯关AI混沌期:阿里画靶,吴嘉张弓,马云射箭?
人工智能