【机器学习基础】激活函数

激活函数

  • [1. Sigmoid函数](#1. Sigmoid函数)
  • [2. Tanh(双曲正切)函数](#2. Tanh(双曲正切)函数)
  • [3. ReLU函数](#3. ReLU函数)
  • [4. Leaky ReLU函数](#4. Leaky ReLU函数)

1. Sigmoid函数

  • 观察导数图像
  • 在我们深度学习里面,导数是为了求参数W和B,W和B是在我们模型model确定之后,找出一组最优的W和B,使我们那个模型输入的x,得出我们Y最近我们真实结果的一个Y
  • 导数函数图像,往两边走的话,它的导数越来越接近零。如果这样的情况出现的话,出现梯度消失。我们希望它的导数是一个平稳值,不要大也不要小
  • 值落在,无穷大的时候或者无穷小的时候,它的导数就接近于零,此时W和B就不能更新了,无法找到最优的W和B。你就是你不断找不找,每天也走一走个几米几米远,事实上W和B在几千米远之外

2. Tanh(双曲正切)函数

  • 和Sigmoid类似,优缺点也类似
  • 函数图像,值域在-1到1之间,Sigmoid在0~1之间
  • 导数图像,值域么在0到1之间,Sigmoid在0~0.25之间是吧
  • 比Sigmoid快,原因比Sigmoid0.25大,Sigmoid可能训练100轮,Tanh找50轮就够

3. ReLU函数

  • 分段函数,函数图像大于0为Z,小于0为0
  • 导数图像,大于0为1,小于0为0
  • 认为解决梯度消失不太严谨,因为小于0直接是0了,上两个是接近于0,直接神经元死亡。但落在大于0确实解决梯度消失,都等于1很平缓

4. Leaky ReLU函数

  • 对ReLU的改进
  • 函数图像大于0与ReLU相同,小于0为aZ,a≠0也≠1
  • 导数图像不为0了
  • 没有完美的激活函数,只有不合适的激活函数
相关推荐
小超同学你好8 分钟前
Langgraph 18. Skill 四种形态 —— Inline / File-based / External / Meta(含代码示例)
人工智能·语言模型·langchain
不只会拍照的程序猿9 分钟前
《嵌入式AI筑基笔记02:Python数据类型01,从C的“硬核”到Python的“包容”》
人工智能·笔记·python
uzong10 分钟前
Skill 被广泛应用,到底什么是 Skill,今天详细介绍一下
人工智能·后端·面试
Jokeny14 分钟前
OpenClaw本地"养虾"全攻略:数据真·不出电脑,本地大模型+飞书自动化方案
人工智能
reesn14 分钟前
copaw梳理
人工智能
算法玩不起14 分钟前
以乳腺癌诊断数据为例的医学AI分类建模方法入门
人工智能·分类·数据挖掘
Tadas-Gao30 分钟前
Mem0分层记忆系统:大语言模型长期记忆的架构革命与实现范式
人工智能·语言模型·自然语言处理·架构·大模型·llm·transformer
极客小俊35 分钟前
Windows 卸载 OpenClaw
人工智能
吴佳浩 Alben37 分钟前
GPU 生产环境实践:硬件拓扑、显存管理与完整运维体系
运维·人工智能·pytorch·语言模型·transformer·vllm
多年小白38 分钟前
OpenClaw 本周技术更新速递
人工智能·ai·ai编程·openclaw