机器学习常见激活函数

Sigmoid 函数

常用于二分类问题

优点

函数的值域在(0,1)之间,可将任意实数映射到0到1的区间,常被用于将输出解释为概率。

将很大范围内的输入特征值压缩到0~1之间,使得在深层网络中可以保持数据幅度不会出现较大的变化,而Relu函数则不会对数据的幅度作出约束;

缺点:

当输入非常大或非常小的时候,输出基本为常数,即变化非常小,进而导致梯度接近于0;

梯度可能会过早消失,进而导致收敛速度较慢,例如与Tanh函数相比,其就比sigmoid函数收敛更快,是因为其梯度消失问题较sigmoid函数要轻一些;

softmax

Softmax一般用来作为神经网络的最后一层 ,用于多分类问题的输出。其本质是一种激活函数,将一个数值向量归一化为一个概率分布向量,且各个概率之和为1。

Tanh

Relu(修正线性单元)

相关推荐
朝朝暮暮Quake3 分钟前
L1正则项与L2正则项
机器学习
渡我白衣4 分钟前
多路转接模型与select
人工智能·深度学习·websocket·网络协议·机器学习·网络安全·信息与通信
菩提树下的凡夫14 分钟前
Yolov11的空标注负样本技术在模型训练中的应用
人工智能·深度学习·yolo
唯道行20 分钟前
计算机图形学·21 梁友栋-Barsky直线裁剪算法与三维直线裁剪
人工智能·算法·机器学习·计算机视觉·计算机图形学·opengl
严文文-Chris25 分钟前
【机器学习、深度学习、神经网络之间的区别和关系】
深度学习·神经网络·机器学习
严文文-Chris26 分钟前
【机器学习三大范式对比总结】
人工智能·机器学习
龙腾AI白云28 分钟前
卷积神经网络(CNN)详细介绍及其原理详解(2)二、输入层三、卷积层
机器学习
落羽的落羽38 分钟前
【Linux系统】初探 虚拟地址空间
linux·运维·服务器·c++·人工智能·学习·机器学习
噜~噜~噜~1 小时前
STAR(Stability-Inducing Weight Perturbation)的个人理解
人工智能·深度学习·损失函数·持续学习·star