深度学习|3.6 激活函数 3.7 为什么需要非线性激活函数

激活函数

主要有sigmoid函数、tanh函数、relu函数和leaky relu函数

tanh函数相比sigmoid函数是具有优势的,因为tanh函数使得输出值的平均值为0,而sigmoid函数使得输出值的平均值为1/2,对下一层来说tanh输出的0更好进行处理。

激活函数tanh和sigmoid函数的不同和缺点

两者在趋近正负无穷时,函数值的变化量基本忽略不计。

relu函数

relu函数的缺点是,当x小于0时,函数值为一个常数,对应地,其导数为0。

相关推荐
aixingkong921几秒前
NVIDIA NVL72 超节点分析
人工智能·硬件架构·硬件工程
i建模6 分钟前
下载**Qwen3.5-35B-A3B**的GGUF格式文件
人工智能
txp玩Linux7 分钟前
嵌入式音视频:语音识别开源项目
人工智能·音视频·语音识别
Roselind_Yi8 分钟前
【吴恩达2026 Agentic AI】面试向+项目实战(含面试题+项目案例)-1
人工智能·python·面试·职场和发展·langchain·gpt-3·agent
新缸中之脑9 分钟前
Vane 安装指南(本地AI问答引擎)
人工智能
Coremail邮件安全11 分钟前
2025企业邮箱安全报告发布:AI攻击升级,技术与管理协同成防护趋势
人工智能·安全
道一云黑板报11 分钟前
企业微信CLI开源项目发布,支持通过CLI使用接口能力
人工智能·开源·企业微信
OpenCSG13 分钟前
AgenticOps全景解读:CSGHub + OpenClaw x AgenticHub 如何重构企业AI基础设施
人工智能·重构
deephub14 分钟前
多 Agent 验证架构实战:从输出评分到过程验证
人工智能·深度学习·大语言模型·agent
Deepoch15 分钟前
Deepoc具身模型:重塑采摘机器人“手眼脑”
人工智能·科技·机器人·具身模型·deepoc