神经网络基础--什么是神经网络?? 常用激活函数是什么???

前言

  • 本专栏更新神经网络的一些基础知识;
  • 案例代码基于pytorch;
  • 欢迎收藏 + 关注, 本人将会持续更新。

神经网络

1、什么是神经网络

人工神经网络( Artificial Neural Network, 简写为ANN)也简称为神经网络(NN),是一种模仿生物神经网络结构和功能的 计算模型。

高中学生物的时候,我们可以发现在生物的神经网络中,由一个个神经元连接而成,在每个神经元中传递各种复杂的信号,在树突中输入信号,然后对信号进行处理,在轴突中输出信号这一过程。生物神经网络如图:

从生物的神经网络中可以看出,神经网络由神经元、树突、轴突所构成,当细胞核电量收集到一定程度的时候,会向数突发送电信号,电信号经过各种处理,最终会在轴突中输出。

2、人工神经网络

人工神经网络(ANN)实际上就是模拟生物神经网络的过程,神经网络可以看作由很多神经元所构成的,一个神经元中树突接收信号,然后进行处理,在轴突中输出信号,换算成人工神经网络中即有三部分构成:输入层、隐藏层、输出层所构成,一个简单的模拟神经元如图:

从上图可以看出,当接收到输入信号的时候,对信号要进行加权计算,最后输出的过程。其中w叫做权重,b叫做偏置,和之前学的斜率和截距相比有着更加专业的名称。

由多个神经元所构成自然就成为了神经网络,如图:

在神经网络中信号只是单方向移动,大概过程就是:

  1. 输入层:接收信号,可以看作的输入X
  2. 隐藏层:处理信号,对输入的数据进行各种线性和非线性变换,去拟合
  3. 输出层,输出信号,可以看作是Y

神经网络的作用:可以看作是一个万能的函数拟合器,拟合各种分布规律的点。

3、总结

神经网络是从生物神经网络中产生的,由很多神经元所有构成,每个神经元又包含输入层、隐藏层、输出层,从而发现数据的规律。

激活函数

1、非线性因素

线性:可以用一个线性方差来表示,如一元线性方程、多元线性方程......

非线性:在高中数学中,我们可以发现,实际应用很少数据规律是符合线性的,因为生活中的数据总是收到多个因素的影响,包括很多不确定因素的影响,数据分布可能符合:指数、对数、指对结合、三角结合............

神经网络 :从上面的神经网络图中可以发现,线性拟合可以经过不同神经元之间的权重和偏置进行拟合 ,而非线性因素需要引入激活函数 ,引入了激活函数后,神经网络就可以拟合各种曲线,逼近各种函数了,那什么是激活函数呢?请看下面讲解。

2、常见的激活函数

sigmoid

简介

表达式

​ f ( x ) = 1 1 + e − x \mathrm{f(x)=\frac1{1+e^{-x}}} f(x)=1+e−x1

图像以及其导函数的图像

分析可以得出

  • sigmoid函数值域为:(0, 1),即:可以将任何函数值都可以映射到(0, 1) 范围内
  • 函数值效果分析
    • (-6, 6)区间内,效果可以,输出值有区别,尤其是在(-3, 3)区间中,效果最好 ,输出值有明显区别
    • 当x在大于6,或者小于-6的时候,效果不佳,输出值没有说明区别
  • 导数图像分析 :
    • 值域:(0, 0.25)
    • 当x在大于6,或者小于-6的时候,导数值接近为0,收敛平缓

使用场景

  • 用作激活函数不多,主要运用在二分类中,如逻辑回归,并且神经网络层数不能多,否则很容易 到后面求出导数值为0
pytorch代码举例
python 复制代码
import torch
import matplotlib.pyplot as plt 
import torch.nn.functional as F 

from pylab import mpl
mpl.rcParams["font.sans-serif"] = ["SimHei"]
plt.rcParams['axes.unicode_minus'] = False

def test():
    # 创建画板
    fig, axes = plt.subplots(1, 2)
    
    # 创建sigmoid
    x = torch.linspace(-20, 20, 1000)
    y = F.sigmoid(x)
    axes[0].plot(x, y)
    axes[0].grid()
    axes[0].set_title('Sigmoid 函数值')
    
    # 导函数
    x = torch.linspace(-20, 20, 1000, requires_grad=True)  # 最后一个参数,全程跟踪求导,并且将求导值存入 grad中
    # 求导
    torch.sigmoid(x).sum().backward()  # .backward() 以及任何被x直接或间接影响的、需要梯度的参数,将其值全部存储在 .grad 中
    # 绘图
    axes[1].plot(x.detach(), x.grad)   # .detach() 分离出x没有求导的值,x.grad存储求导的值
    axes[1].grid()
    axes[1].set_title('Sigmoid 导数值')
    
    
    
if __name__ == '__main__':
    test()

输出图像如上图sigmoid所示。

tanh

简介

表达式

​ f ( x ) = 1 − e − 2 x 1 + e − 2 x \mathrm{f(x)=\frac{1-e^{-2x}}{1+e^{-2x}}} f(x)=1+e−2x1−e−2x

图像及其导函数图像

分析

  • tanh的值域为:[-1, 1],即:任何函数值通过tanh函数都可以映射到:[-1, 1]区间
  • 关于源点0对称
  • 函数效果值分析
    • 在x属于[-3, 3]这个区域内,函数值映射效果区分度较大
    • 当x>3或者x<-3的时候,分别映射成 -1 与 1
  • 导数值分析
    • 值域:(0, 1)
    • 当x>3或者x<-3的时候,导数值为0
  • 与sigmoid函数区别
    • tanh函数收敛速度较快,运用范围较广
    • 查阅资料 :可以搭配使用,隐藏层用tanh,输出层用sigmoid,用于二分类问题
pytorch代码举例
python 复制代码
import torch 
import matplotlib.pyplot as plt 
import torch.nn.functional as F 

from pylab import mpl
mpl.rcParams["font.sans-serif"] = ["SimHei"]
plt.rcParams['axes.unicode_minus'] = False

def test():
    # 创建画板
    fig, axes = plt.subplots(1, 2)
    
    # tanh图像
    x = torch.linspace(-20, 20, 1000)
    y = F.tanh(x)
    axes[0].plot(x, y)
    axes[0].grid()
    axes[0].set_title('tanh 函数')
    
    # 导函数图像
    x = torch.linspace(-20, 20, 1000, requires_grad=True)
    torch.tanh(x).sum().backward()
    axes[1].plot(x.detach(), x.grad)
    axes[1].grid()
    axes[1].set_title('tanh 导数')
    
    plt.show()
    
if __name__ == '__main__':
    test()

ReLu(最常用的)

简介

表达式

​ f ( x ) = m a x ( 0 , x ) \mathrm{f(x)=max~(0,x)} f(x)=max (0,x)

图像

分析

  • 当 x 值小于0的时候,映射成0,当 x 值大于 0 的时候,映射成它本身
  • 运算简单,效率高,容易通过线性变换非线性变换拟合任何函数,最常用

导函数图像

分析

  • 函数值小于0,则导函数为 0 ,函数值大于0,导数值为 1
  • ReLU 能够在x>0时保持梯度不衰减,从而缓解梯度消失问题。

缺点

  • 如果我们网络的参数采用随机初始化时,很多参数可能为负数,这就使得输入的正值会被舍去,而输入的负值则会保留,这可能在大部分的情况下并不是我们想要的结果
  • 随着训练的推进,部分输入会落入小于0区域,导致对应权重无法更新。这种现象被称为"神经元死亡"

SoftMax

用于多分类题目

简介

表达式

​ s o f t m a x ( z i ) = e z i ∑ j e z j softmax(z_{i})=\frac{e^{z_{i}}}{\sum_{j}e^{z_{j}}} softmax(zi)=∑jezjezi

Softmax 直白来说就是将网络输出的 logits 通过 softmax函数,就映射成为(0,1)的值,而这些值的累和为1(满足概率的性质),那么我们将它理解成概率,选取概率最大(也就是值对应最大的)节点,作为我们的预测目标类别

pytorch代码
python 复制代码
import torch 

scores = torch.tensor([0.2, 0.02, 0.15, 0.15, 1.3, 0.5, 0.06, 1.1, 0.05, 3.75])
probabilities = torch.softmax(scores, dim=0)
print(probabilities)

3、总结

如何选取激活函数?

对于隐藏层:

  1. 优先选择RELU激活函数
  2. 如果ReLu效果不好,那么尝试其他激活,如Leaky ReLu等。
  3. 如果你使用了Relu, 需要注意一下Dead Relu问题, 避免出现大的梯度从而导致过多的神经元死亡。
  4. 不要使用sigmoid激活函数,可以尝试使用tanh激活函数

对于输出层:

  1. 二分类问题选择sigmoid激活函数
  2. 多分类问题选择softmax激活函数
  3. 回归问题选择identity激活函数
相关推荐
weixin_543662866 分钟前
BERT的中文问答系统28
人工智能·python·bert
howard20058 分钟前
1.3 自然语言处理的应用
人工智能·自然语言处理
HyperAI超神经9 分钟前
突破1200°C高温性能极限!北京科技大学用机器学习合成24种耐火高熵合金,室温延展性极佳
人工智能·深度学习·机器学习·数据集·ai4s·材料学·合金
&永恒的星河&11 分钟前
Hunyuan-Large:推动AI技术进步的下一代语言模型
人工智能·语言模型·自然语言处理·chatgpt·moe·llms
github_czy12 分钟前
使用GPT-SoVITS训练语音模型
人工智能·gpt
AI_小站14 分钟前
LLM——10个大型语言模型(LLM)常见面试题以及答案解析
人工智能·程序人生·语言模型·自然语言处理·大模型·llm·大模型面试
Zilliz Planet15 分钟前
大语言模型鼻祖Transformer的模型架构和底层原理
人工智能·深度学习·语言模型·自然语言处理·transformer
一尘之中15 分钟前
使用 AMD GPU 的 ChatGLM-6B 双语语言模型
人工智能·学习·语言模型
handsomeboysk31 分钟前
mAP的定义
人工智能·计算机视觉·目标跟踪
写代码的小阿帆32 分钟前
深度学习—Pandas标签库基础
深度学习·pandas