深度学习与神经网络 前馈神经网络

1.神经网络特征

无需人去告知神经网络具体的特征是什么,神经网络可以自主学习

2.激活函数性质

(1)连续并可导(允许少数点不可导)的非线性函数

(2)单调递增

(3)函数本身及其导函数要尽可能的简单

(4)导函数的值域要在合适的范围内

3.常用激活函数

(1)sigma函数

(2)tanh函数

sigma和tanh均为饱和函数,且sigma函数存在特征变量之间只能向同一方向迭代(非负)导致迭代速度慢,且二者均可能由于层数过多在反向传播时出现梯度消失的现象(导函数的取值在0-1之间)

(3)ReLU函数

ReLU变体

(4)LeakyRuLU函数

(5)PReLU函数

ReLU及其变体激活函数也被称为斜坡函数,可以有效避免梯度消失问题和迭代次数过多问题,最激活函数最常用的就是ReLU函数

4.前馈神经网络结构

输入层----隐藏层----输出层

各神经元分别属于不同的层,层内无连接;相邻两层之间的神经元全部两两相连(单向);整个网络中无反馈,信号从输入层向输出层单向传播,可用一个有向无环图表示

5.前向传播

从输入层向输出层信息传播的算法

6.反向传播

从输出层向输入层信息传播的算法

7.梯度消失&梯度爆炸

均发生在反向传播算法当中,链式法则存在连乘效应,如果梯度处于0-1或大于1时,当层数足够大时,容易出现0和无穷的现象导致梯度消失和爆炸

解决思路:

相关推荐
codegarfield16 小时前
关于神经网络中的激活函数
人工智能·深度学习·神经网络·激活函数
Ombré_mi9 天前
机器学习中的关键术语及其含义
深度学习·神经网络·机器学习·激活函数·大模型训练·反向传播
闲人编程10 天前
深度学习:损失函数与激活函数全解析
人工智能·python·深度学习·损失函数·激活函数·relu·分类回归
郜太素1 个月前
PyTorch 线性回归模型构建与神经网络基础要点解析
pytorch·神经网络·线性回归·激活函数
沛沛老爹1 个月前
从线性到非线性:简单聊聊神经网络的常见三大激活函数
人工智能·深度学习·神经网络·激活函数·relu·sigmoid·tanh
夜松云1 个月前
PaddlePaddle线性回归详解:从模型定义到加载,掌握深度学习基础
深度学习·线性回归·paddlepaddle·激活函数·模型加载·模型定义·模型保存
HNU混子2 个月前
手搓多模态-05 transformer编码层
人工智能·深度学习·transformer·编码器·激活函数·多模态大模型
flying_13142 个月前
面试常问系列(一)-神经网络参数初始化
神经网络·算法·激活函数·正态分布·参数初始化·xavier·kaiming
爱吃泡芙的小白白2 个月前
机器学习——神经网络、感知机
神经网络·机器学习·bp·感知机