机器学习常见激活函数

Sigmoid 函数

常用于二分类问题

优点

函数的值域在(0,1)之间,可将任意实数映射到0到1的区间,常被用于将输出解释为概率。

将很大范围内的输入特征值压缩到0~1之间,使得在深层网络中可以保持数据幅度不会出现较大的变化,而Relu函数则不会对数据的幅度作出约束;

缺点:

当输入非常大或非常小的时候,输出基本为常数,即变化非常小,进而导致梯度接近于0;

梯度可能会过早消失,进而导致收敛速度较慢,例如与Tanh函数相比,其就比sigmoid函数收敛更快,是因为其梯度消失问题较sigmoid函数要轻一些;

softmax

Softmax一般用来作为神经网络的最后一层 ,用于多分类问题的输出。其本质是一种激活函数,将一个数值向量归一化为一个概率分布向量,且各个概率之和为1。

Tanh

Relu(修正线性单元)

相关推荐
yorushika_1 小时前
python打卡训练营打卡记录day45
开发语言·python·深度学习·tensorboard
databook1 小时前
稀疏表示与字典学习:让数据“瘦身”的魔法
python·机器学习·scikit-learn
bj32811 小时前
机器学习实验八--基于pca的人脸识别
人工智能·机器学习·计算机视觉
神经星星1 小时前
告别代码烦恼!Seed-Coder 解锁高效编程;Mixture-of-Thoughts 涵盖多领域数据,实现高质量推理
人工智能·深度学习·机器学习
刘维克2 小时前
(预发布)[阿维笔记]分析优化CloudStudio高性能工作空间的GPU训练速度和效果
深度学习·计算机视觉
狂小虎3 小时前
01 Deep learning神经网络的编程基础 二分类--吴恩达
深度学习·神经网络·分类
zdy12635746883 小时前
python43天
python·深度学习·机器学习
wswlqsss3 小时前
第四十五天打卡
人工智能·深度学习
CoovallyAIHub4 小时前
AI+无人机如何守护濒危物种?YOLOv8实现95%精准识别
深度学习·算法·计算机视觉
coderCatIce4 小时前
刘二大人第2讲-线性模型-带代码以及作业答案
人工智能·机器学习