常用的激活函数

激活函数最大的作用:向线性模型中注入非线性

1.Sigmoid

公式:

输出范围为[0,1]

缺点:

梯度消失问题

2.Tanh

公式:

输出范围[-1,1]

缺点:未完全解决梯度消失问题

3.ReLU

公式:

输出范围[0,+∞]

缺点:若有些神经元始终小于0,会导致其始终无法更新。

4.Leaky Relu

公式:

输出范围[-∞,+∞]

缺点:超参数 α 需手动调优

5.PRelu

公式:

为可学习参数,通过反向传播更新

缺点:增加模型复杂度,需限制 α>0

6.ELU

公式:

7.selu

公式:

缺点:计算复杂度高,网络结构不支持RNN/LSTM(时序数据的自归一化条件不满足)

8.swish

公式:

兼具 "梯度平滑、无死亡神经元、自适应特征权重" 三大优势

9.mish

公式:

缺点:计算复杂度高,指数溢出风险。小数据容易过拟合

10.softmax

公式:

相关推荐
qq_454245032 分钟前
规则AI与大模型的认知互补:从游戏智能体到通用智能的边界探索
人工智能·游戏
L-影13 分钟前
从野蛮生长到精耕细作:AI中的Scaling Law正在开启新篇章(下篇)
人工智能·ai·scaling law
掘金安东尼21 分钟前
本地模型怎么玩?把 .GGUF 丢 进 LM Studio 跑起来
人工智能
aiAIman25 分钟前
OpenClaw 生态主流 AI 模型真实性能 PinchBench深度解读(基于2026年3月12日测评数据)
人工智能·开源·aigc
一起来学吧27 分钟前
【OpenClaw系列教程】第四篇:OpenClaw安装配置指南 - 开始养你的数字“龙虾“
人工智能·ai·openclaw
玩转单片机与嵌入式36 分钟前
嵌入式AI未来会怎样,能发展好吗?
人工智能
geneculture1 小时前
从“三亲三同”到“信智序位”:数字时代社会关系范式的重构
大数据·人工智能·融智学的重要应用·哲学与科学统一性·融智时代(杂志)
人工智能AI技术1 小时前
GTC炸场!C#集成NemoClaw企业级Agent实战教程
人工智能·c#