机器学习常见激活函数

Sigmoid 函数

常用于二分类问题

优点

函数的值域在(0,1)之间,可将任意实数映射到0到1的区间,常被用于将输出解释为概率。

将很大范围内的输入特征值压缩到0~1之间,使得在深层网络中可以保持数据幅度不会出现较大的变化,而Relu函数则不会对数据的幅度作出约束;

缺点:

当输入非常大或非常小的时候,输出基本为常数,即变化非常小,进而导致梯度接近于0;

梯度可能会过早消失,进而导致收敛速度较慢,例如与Tanh函数相比,其就比sigmoid函数收敛更快,是因为其梯度消失问题较sigmoid函数要轻一些;

softmax

Softmax一般用来作为神经网络的最后一层 ,用于多分类问题的输出。其本质是一种激活函数,将一个数值向量归一化为一个概率分布向量,且各个概率之和为1。

Tanh

Relu(修正线性单元)

相关推荐
这是你的玩具车吗17 分钟前
能和爸妈讲明白的大模型原理
前端·人工智能·机器学习
Salt_07283 小时前
DAY44 简单 CNN
python·深度学习·神经网络·算法·机器学习·计算机视觉·cnn
雍凉明月夜3 小时前
深度学习网络笔记Ⅱ(常见网络分类1)
人工智能·笔记·深度学习
liulanba4 小时前
YOLO-World 端到端详解
机器学习
liulanba4 小时前
YOLOv6 端到端详解
机器学习
RaymondZhao345 小时前
【深度硬核】AI Infra 架构漫游指南
人工智能·深度学习·架构
惊鸿一博5 小时前
深度学习概念_随机梯度下降 与 ADAM 的区别与联系 公式化表达
人工智能·深度学习
哥布林学者6 小时前
吴恩达深度学习课程四:计算机视觉 第三周:检测算法 (四)YOLO 的完整传播过程
深度学习·ai
aitoolhub6 小时前
AI生成圣诞视觉图:从节日元素到创意落地的路径
人工智能·深度学习·自然语言处理·节日
雍凉明月夜6 小时前
深度学习网络笔记Ⅰ(CNN)
网络·笔记·深度学习·神经网络·学习·cnn