【机器学习基础】激活函数

激活函数

  • [1. Sigmoid函数](#1. Sigmoid函数)
  • [2. Tanh(双曲正切)函数](#2. Tanh(双曲正切)函数)
  • [3. ReLU函数](#3. ReLU函数)
  • [4. Leaky ReLU函数](#4. Leaky ReLU函数)

1. Sigmoid函数

  • 观察导数图像
  • 在我们深度学习里面,导数是为了求参数W和B,W和B是在我们模型model确定之后,找出一组最优的W和B,使我们那个模型输入的x,得出我们Y最近我们真实结果的一个Y
  • 导数函数图像,往两边走的话,它的导数越来越接近零。如果这样的情况出现的话,出现梯度消失。我们希望它的导数是一个平稳值,不要大也不要小
  • 值落在,无穷大的时候或者无穷小的时候,它的导数就接近于零,此时W和B就不能更新了,无法找到最优的W和B。你就是你不断找不找,每天也走一走个几米几米远,事实上W和B在几千米远之外

2. Tanh(双曲正切)函数

  • 和Sigmoid类似,优缺点也类似
  • 函数图像,值域在-1到1之间,Sigmoid在0~1之间
  • 导数图像,值域么在0到1之间,Sigmoid在0~0.25之间是吧
  • 比Sigmoid快,原因比Sigmoid0.25大,Sigmoid可能训练100轮,Tanh找50轮就够

3. ReLU函数

  • 分段函数,函数图像大于0为Z,小于0为0
  • 导数图像,大于0为1,小于0为0
  • 认为解决梯度消失不太严谨,因为小于0直接是0了,上两个是接近于0,直接神经元死亡。但落在大于0确实解决梯度消失,都等于1很平缓

4. Leaky ReLU函数

  • 对ReLU的改进
  • 函数图像大于0与ReLU相同,小于0为aZ,a≠0也≠1
  • 导数图像不为0了
  • 没有完美的激活函数,只有不合适的激活函数
相关推荐
HIT_Weston3 小时前
45、【Agent】【OpenCode】本地代理分析(请求&接收回调)
人工智能·agent·opencode
逻辑君3 小时前
认知神经科学研究报告【20260010】
人工智能·深度学习·神经网络·机器学习
星河耀银海4 小时前
远控体验分享:安全与实用性参考
人工智能·安全·微服务
企业架构师老王4 小时前
2026企业架构演进:科普Agent(龙虾)如何从“极客玩具”走向实在Agent规模化落地?
人工智能·ai·架构
GreenTea4 小时前
一文搞懂Harness Engineering与Meta-Harness
前端·人工智能·后端
鬼先生_sir4 小时前
Spring AI Alibaba 1.1.2.2 完整知识点库
人工智能·ai·agent·源码解析·springai
深念Y4 小时前
豆包AI能力集成方案:基于会话管理的API网关设计
人工智能
龙文浩_4 小时前
Attention Mechanism: From Theory to Code
人工智能·深度学习·神经网络·学习·自然语言处理
ulimate_4 小时前
八卡算力、三个Baseline算法(WALLOSS、pi0、DreamZero)
人工智能
深小乐5 小时前
AI 周刊【2026.04.06-04.12】:Anthropic 藏起最强模型、AI 社会矛盾激化、"欢乐马"登顶
人工智能