激活函数总结(十九):激活函数补充(ISRU、ISRLU)

激活函数总结(十九):激活函数补充

  • [1 引言](#1 引言)
  • [2 激活函数](#2 激活函数)
    • [2.1 Inverse Square Root Unit (ISRU)激活函数](#2.1 Inverse Square Root Unit (ISRU)激活函数)
    • [2.2 Inverse Square Root Linear Unit (ISRLU)激活函数](#2.2 Inverse Square Root Linear Unit (ISRLU)激活函数)
  • [3. 总结](#3. 总结)

1 引言

前面的文章中已经介绍了介绍了一系列激活函数 (SigmoidTanhReLULeaky ReLUPReLUSwishELUSELUGELUSoftmaxSoftplusMishMaxoutHardSigmoidHardTanhHardswishHardShrinkSoftShrinkTanhShrinkRReLUCELUReLU6GLUSwiGLUGTUBilinearReGLUGEGLUSoftminSoftmax2dLogsoftmaxIdentityLogSigmoidBent IdentityAbsoluteBipolarBipolar SigmoidSinusoidCosineArcsinhArccoshArctanhLeCun TanhTanhExpGaussianGCUASUSQUNCUDSUSSUSReLUBReLUPELUPhishRBFSQ-RBF)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:

2 激活函数

2.1 Inverse Square Root Unit (ISRU)激活函数

Inverse Square Root Unit(ISRU)是一种非线性激活函数,它在神经网络中用于引入非线性变换。其数学表达式和数学图像分别如下所示:
I S R U ( x ) = x 1 + a x 2 ISRU(x) = \frac{x}{\sqrt{1+ax^2}} ISRU(x)=1+ax2 x
优点:

  • 非线性性质 : ISRU 激活函数引入了非线性性质,有助于神经网络模型捕捉数据中的复杂模式。
  • 平滑性 : ISRU 在输入值的范围内具有连续和平滑的性质,这对于梯度计算和反向传播有益。
  • 参数调整 : 通过调整参数 α,您可以自由地控制激活函数的形状,使其适应不同的数据分布和任务需求。
  • 避免梯度消失 : 相对于一些激活函数,如 Sigmoid 和 Tanh,ISRU 在输入较大的范围内可以避免梯度消失问题。

缺点:

  • 计算复杂性 : ISRU 涉及平方根的计算,这可能在计算上相对于一些简单的激活函数(如 ReLU)而言较为复杂。
  • 参数调整 : 调整参数 α 需要更多的实验调优,以找到最佳参数设置。
  • 可解释性 : ISRU 不是一个广泛使用的激活函数,因此可能需要更多的背景知识来解释其作用和效果。

该激活函数在当前环境下很少使用。。。。

2.2 Inverse Square Root Linear Unit (ISRLU)激活函数

Inverse Square Root Linear Unit(ISRLU)是一种非线性激活函数,它是 Rectified Linear Unit(ReLU)的一种扩展。ISRLU 激活函数引入了一个可学习的参数,使得在输入为时,激活函数的输出与输入之间存在非线性关系。其数学表达式和数学图像分别如下所示:
I S R L U ( x ) = { x 1 + a x 2 , if x < 0 x , if x ≥ 0 ISRLU(x) = \begin{cases} \frac{x}{\sqrt{1+ax^2}}, & \text{if } x < 0 \\ x, & \text{if } x \geq 0 \\ \end{cases} ISRLU(x)={1+ax2 x,x,if x<0if x≥0
优点:

  • 非线性性质: ISRLU 激活函数在输入为时引入了非线性性质,有助于神经网络模型更好地捕捉数据中的复杂模式。
  • 平滑性: ISRLU 在输入为负时是平滑的,这对于梯度计算和反向传播有益
  • 自适应性: 参数 ( α \alpha α) 可以通过训练适应不同的数据分布,使 ISRLU 的负半部分适应数据的特性。
  • 避免梯度消失: 相对于一些激活函数,如 Sigmoid 和 Tanh,ISRLU 在输入较大的范围内可以避免梯度消失问题。

缺点:

  • 计算复杂性: ISRLU 涉及平方根的计算,这可能在计算上相对于一些简单的激活函数(如 ReLU)而言较为复杂。
  • 参数调整: 调整参数 ( α \alpha α) 需要更多的实验调优,以找到最佳参数设置。
  • 可解释性: ISRLU 不是一个广泛使用的激活函数,因此可能需要更多的背景知识来解释其作用和效果。

该激活函数在当前环境下很少使用。。。。但是从其性质上可以感觉到是一个不错的激活函数,可能会在某些应用中得到应用。。。。

3. 总结

到此,使用 激活函数总结(十九) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。

相关推荐
政安晨13 分钟前
政安晨【零基础玩转开源AI项目】- AutoGPT:全球首个自主AI Agent从入门到实战(致敬OpenClaw的小回顾)
人工智能·ai·autogpt·全球首个agent框架·致敬openclaw之作·参考价值·ai开源agent框架
Shawn_Shawn5 小时前
mcp学习笔记(一)-mcp核心概念梳理
人工智能·llm·mcp
冷雨夜中漫步6 小时前
Python快速入门(6)——for/if/while语句
开发语言·经验分享·笔记·python
33三 三like7 小时前
《基于知识图谱和智能推荐的养老志愿服务系统》开发日志
人工智能·知识图谱
芝士爱知识a7 小时前
【工具推荐】2026公考App横向评测:粉笔、华图与智蛙面试App功能对比
人工智能·软件推荐·ai教育·结构化面试·公考app·智蛙面试app·公考上岸
郝学胜-神的一滴7 小时前
深入解析Python字典的继承关系:从abc模块看设计之美
网络·数据结构·python·程序人生
百锦再7 小时前
Reactive编程入门:Project Reactor 深度指南
前端·javascript·python·react.js·django·前端框架·reactjs
腾讯云开发者8 小时前
港科大熊辉|AI时代的职场新坐标——为什么你应该去“数据稀疏“的地方?
人工智能
工程师老罗8 小时前
YoloV1数据集格式转换,VOC XML→YOLOv1张量
xml·人工智能·yolo