【深度学习】【框架】【基本结构】激活函数

1. relu

2. softmax

3. sigmoid

4. silu

函数:f(x) = x * sigmoid(x)

优点: 它既有 ReLU(Rectified Linear Unit)激活函数的一些优点(例如,能够缓解梯度消失问题),又能解决 ReLU 函数的一些缺点(例如,ReLU 函数不是零中心的,且在负数部分的梯度为零)。此外,Swish 函数还是平滑函数,这意味着它在整个定义域内都有导数,这有利于优化。

SiLu激活函数解释-CSDN博客

相关推荐
LiYingL1 分钟前
ChartCap:利用大型数据集和新的评估指标抑制图表标题幻觉
人工智能
有来有去95274 分钟前
vllm推理服务指标监控看板搭建手册
人工智能·vllm
流浪法师1211 分钟前
MyPhishing-Web:AI 驱动的钓鱼邮件检测可视化平台
前端·人工智能
LinkTime_Cloud16 分钟前
谷歌深夜突袭:免费Flash模型发令,部分测试优于 GPT-5.2
人工智能·gpt·深度学习
职业码农NO.119 分钟前
智能体推理范式: Plan-and-Execute(规划与执行)
人工智能·python·数据分析·系统架构·知识图谱·agent·集成学习
黑客思维者24 分钟前
机器学习004:半监督学习-- 给AI一颗“举一反三”的大脑
人工智能·机器学习·半监督学习
黑客思维者25 分钟前
机器学习005:强化学习(概论)--从“训练狗狗”到“打游戏”
人工智能·机器学习·强化学习
__lai32 分钟前
iflow cli一键安装脚本运行了,也正常安装了,但是无法通过iflow命令进入软件。在termux安装iflow-cli AI工具
linux·人工智能·termux
Aspect of twilight34 分钟前
深度学习不同GPU性能比较
人工智能·深度学习
爱笑的眼睛1143 分钟前
超越`cross_val_score`:深入剖析Scikit-learn交叉验证API的设计哲学与高阶实践
java·人工智能·python·ai