机器学习常见激活函数

Sigmoid 函数

常用于二分类问题

优点

函数的值域在(0,1)之间,可将任意实数映射到0到1的区间,常被用于将输出解释为概率。

将很大范围内的输入特征值压缩到0~1之间,使得在深层网络中可以保持数据幅度不会出现较大的变化,而Relu函数则不会对数据的幅度作出约束;

缺点:

当输入非常大或非常小的时候,输出基本为常数,即变化非常小,进而导致梯度接近于0;

梯度可能会过早消失,进而导致收敛速度较慢,例如与Tanh函数相比,其就比sigmoid函数收敛更快,是因为其梯度消失问题较sigmoid函数要轻一些;

softmax

Softmax一般用来作为神经网络的最后一层 ,用于多分类问题的输出。其本质是一种激活函数,将一个数值向量归一化为一个概率分布向量,且各个概率之和为1。

Tanh

Relu(修正线性单元)

相关推荐
weixin_668898643 小时前
书生浦语第五期-L1G4-InternLM 论文分类微调实践(XTuner 版)
人工智能·机器学习·分类
云之渺4 小时前
英语文章翻译二
深度学习
数据饕餮5 小时前
PyTorch 深度学习实战教程-番外篇04:卷积层详解与实战指南
人工智能·pytorch·深度学习·卷积神经网络
CoovallyAIHub8 小时前
雾天、夜晚都能识别?MEIWVD数据集+MSG-Net攻克内河航道检测三大难关
深度学习·算法·计算机视觉
freed_Day8 小时前
人工智能与机器学习基本概念知识入门
开发语言·人工智能·python·机器学习
过往入尘土9 小时前
全面了解机器语言之kmeans
人工智能·机器学习·支持向量机
m0_677034359 小时前
机器学习-增加样本、精确率与召回率
人工智能·机器学习
IMER SIMPLE9 小时前
人工智能-python-机器学习-决策树与集成学习:决策树分类与随机森林
人工智能·python·机器学习
楚潸潸9 小时前
从onnx模型到om模型的全自动化转化
深度学习·边缘计算·onnx·昇腾·om模型
赴3359 小时前
机器学习 K-Means聚类 无监督学习
机器学习·kmeans·聚类