【机器学习基础】激活函数

激活函数

  • [1. Sigmoid函数](#1. Sigmoid函数)
  • [2. Tanh(双曲正切)函数](#2. Tanh(双曲正切)函数)
  • [3. ReLU函数](#3. ReLU函数)
  • [4. Leaky ReLU函数](#4. Leaky ReLU函数)

1. Sigmoid函数

  • 观察导数图像
  • 在我们深度学习里面,导数是为了求参数W和B,W和B是在我们模型model确定之后,找出一组最优的W和B,使我们那个模型输入的x,得出我们Y最近我们真实结果的一个Y
  • 导数函数图像,往两边走的话,它的导数越来越接近零。如果这样的情况出现的话,出现梯度消失。我们希望它的导数是一个平稳值,不要大也不要小
  • 值落在,无穷大的时候或者无穷小的时候,它的导数就接近于零,此时W和B就不能更新了,无法找到最优的W和B。你就是你不断找不找,每天也走一走个几米几米远,事实上W和B在几千米远之外

2. Tanh(双曲正切)函数

  • 和Sigmoid类似,优缺点也类似
  • 函数图像,值域在-1到1之间,Sigmoid在0~1之间
  • 导数图像,值域么在0到1之间,Sigmoid在0~0.25之间是吧
  • 比Sigmoid快,原因比Sigmoid0.25大,Sigmoid可能训练100轮,Tanh找50轮就够

3. ReLU函数

  • 分段函数,函数图像大于0为Z,小于0为0
  • 导数图像,大于0为1,小于0为0
  • 认为解决梯度消失不太严谨,因为小于0直接是0了,上两个是接近于0,直接神经元死亡。但落在大于0确实解决梯度消失,都等于1很平缓

4. Leaky ReLU函数

  • 对ReLU的改进
  • 函数图像大于0与ReLU相同,小于0为aZ,a≠0也≠1
  • 导数图像不为0了
  • 没有完美的激活函数,只有不合适的激活函数
相关推荐
文心快码BaiduComate27 分钟前
百度云与光本位签署战略合作:用AI Agent 重构芯片研发流程
前端·人工智能·架构
风象南1 小时前
Claude Code这个隐藏技能,让我告别PPT焦虑
人工智能·后端
Mintopia2 小时前
OpenClaw 对软件行业产生的影响
人工智能
陈广亮2 小时前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬3 小时前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia3 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区3 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两6 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪6 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain