【深度学习】【框架】【基本结构】激活函数

1. relu

2. softmax

3. sigmoid

4. silu

函数:f(x) = x * sigmoid(x)

优点: 它既有 ReLU(Rectified Linear Unit)激活函数的一些优点(例如,能够缓解梯度消失问题),又能解决 ReLU 函数的一些缺点(例如,ReLU 函数不是零中心的,且在负数部分的梯度为零)。此外,Swish 函数还是平滑函数,这意味着它在整个定义域内都有导数,这有利于优化。

SiLu激活函数解释-CSDN博客

相关推荐
幼稚园的山代王5 分钟前
Prompt Enginering(提示工程)先进技术
java·人工智能·ai·chatgpt·langchain·prompt
dfsj660115 分钟前
LLMs 系列科普文(14)
人工智能·深度学习·算法
摘取一颗天上星️12 分钟前
深入解析机器学习的心脏:损失函数及其背后的奥秘
人工智能·深度学习·机器学习·损失函数·梯度下降
远方160918 分钟前
20-Oracle 23 ai free Database Sharding-特性验证
数据库·人工智能·oracle
znhy605820 分钟前
智能终端与边缘计算按章复习
人工智能·边缘计算
__Benco26 分钟前
OpenHarmony平台驱动使用(十五),SPI
人工智能·驱动开发·harmonyos
Listennnn27 分钟前
AI系统的构建
人工智能·系统架构
新智元31 分钟前
全球 30 名顶尖数学家秘密集会围剿 AI,当场破防!惊呼已接近数学天才
人工智能·openai
楽码35 分钟前
AI决策树:整理繁杂问题的简单方法
人工智能·后端·openai
星辰大海的精灵39 分钟前
基于Dify+MCP实现通过微信发送天气信息给好友
人工智能·后端·python