深度学习-神经网络(上篇)

一、神经网络概述

1. 基本概念

  • ​人工神经网络 (ANN)​:一种模仿生物神经网络结构与功能的计算模型。
  • ​生物神经元机理​:树突接收输入信号,细胞核处理并聚集电荷,达到电位阈值后通过轴突输出电信号。
  • ​人工神经元机理​ :对多个输入进行​加权求和​ ,再通过一个​激活函数​ 产生输出。
    输出 = 激活函数(Σ(输入 * 权重) + 偏置)

2. 网络结构

一个典型的全连接神经网络包含以下层次:

  • ​输入层​:接收原始数据。
  • ​隐藏层​:介于输入和输出层之间,进行特征变换。可以有多个。
  • ​输出层​:产生最终的预测结果。

​结构特点​​:

  • 信息单向传播(前向传播)。
  • 同一层的神经元之间无连接。
  • 第N层的每个神经元与第N-1层的所有神经元全连接。
  • 每个连接都有其权重(w)和偏置(b)。

3. 深度学习与机器学习的关系

  • ​深度学习是机器学习的一个子集​
  • 主要区别在于​特征工程​
    • ​传统机器学习​:严重依赖人工特征工程。
    • ​深度学习​ :模型通过多层神经网络​自动学习​数据的层次化特征表示。

二、激活函数

​作用​ ​:为网络引入​​非线性因素​​,使得神经网络能够拟合任意复杂的函数。若无激活函数,多层网络等价于一个线性模型。

常见激活函数对比

激活函数 公式 输出范围 特点 优点 缺点 适用场景
​Sigmoid​ f(x) = 1 / (1 + e⁻ˣ) (0, 1) S型曲线 输出可视为概率 1. 易产生​​梯度消失​ ​(导数范围(0, 0.25) 2. 非零中心 3. 计算含指数,较慢 ​输出层​​(二分类)
​Tanh​ f(x) = (eˣ - e⁻ˣ) / (eˣ + e⁻ˣ) (-1, 1) 放大并平移的Sigmoid ​零中心​​,收敛速度比Sigmoid快 仍存在​​梯度消失​​问题 ​隐藏层​
​ReLU​ f(x) = max(0, x) [0, +∞) 简单阈值过滤 1. 计算高效,缓解梯度消失(正区间) 2. 带来网络稀疏性 ​神经元死亡​​(负区间梯度为0) ​隐藏层​​(首选)
​Softmax​ f(xᵢ) = eˣⁱ / Σⱼeˣʲ (0, 1) 且和为1 多分类Sigmoid推广 将输出归一化为​​概率分布​ - ​输出层​​(多分类)

激活函数选择指南

  • ​隐藏层​
    • ​优先使用 ReLU​,注意学习率设置以防"死亡神经元"。
    • ReLU效果不佳时,可尝试 Leaky ReLU 等变体。
    • 少用 Sigmoid,可尝试 Tanh。
  • ​输出层​
    • ​二分类​:Sigmoid
    • ​多分类​:Softmax
    • ​回归​:恒等函数(即无激活函数)

三、参数初始化方法

权重初始化的好坏直接影响模型的收敛速度和最终性能。

常见初始化方法

  1. ​简单初始化​​:

    • ​均匀分布初始化​torch.nn.init.uniform_()
    • ​正态分布初始化​torch.nn.init.normal_()
    • ​全零初始化​torch.nn.init.zeros_() -> ​导致神经元对称失效,禁止使用​
    • ​全一初始化​torch.nn.init.ones_() -> 效果差,一般不使用。
    • ​固定值初始化​torch.nn.init.constant_()
  2. ​高级初始化(推荐)​​:

    • ​Kaiming (He) 初始化​ :为解决ReLU激活函数设计的初始化方法。
      • 正态分布:std = sqrt(2 / fan_in)
      • 均匀分布:limit = sqrt(6 / fan_in)
      • fan_in:该层输入神经元的个数。
      • PyTorch API: torch.nn.init.kaiming_normal_(), torch.nn.init.kaiming_uniform_()
    • ​Xavier (Glorot) 初始化​ :为解决Sigmoid/Tanh等S型激活函数设计。
      • 正态分布:std = sqrt(2 / (fan_in + fan_out))
      • 均匀分布:limit = sqrt(6 / (fan_in + fan_out))
      • fan_in:输入神经元个数,fan_out:输出神经元个数。
      • PyTorch API: torch.nn.init.xavier_normal_(), torch.nn.init.xavier_uniform_()

初始化方法选择

  • ​通常优先使用 Kaiming 或 Xavier 初始化​
  • PyTorch 中许多层已有合理的默认初始化,但自定义层时需手动初始化。

四、神经网络的搭建与参数计算

1. 模型搭建步骤(PyTorch)

在PyTorch中,通过继承 nn.Module 类来定义模型。

python 复制代码
import torch.nn as nn

class MyModel(nn.Module):
    def __init__(self, input_dim, hidden_dim, output_dim):
        super(MyModel, self).__init__() # 必须调用父类初始化
        # 定义网络层
        self.linear1 = nn.Linear(input_dim, hidden_dim)
        self.linear2 = nn.Linear(hidden_dim, output_dim)
        # 初始化权重
        nn.init.xavier_normal_(self.linear1.weight)
        nn.init.kaiming_normal_(self.linear2.weight)
        
    def forward(self, x):
        # 定义前向传播路径
        x = torch.sigmoid(self.linear1(x))
        x = self.linear2(x) # 输出层通常不加激活函数,损失函数中会集成
        return x

2. 参数量的计算

神经网络的参数量主要指​​权重(w)​ ​ 和​​偏置(b)​​ 的数量。

  • 对于一个全连接层:参数总量 = (输入特征数 + 1) * 输出特征数
    • +1 代表偏置项。
  • ​示例​ :一个输入为3个特征,输出为2个神经元的层,参数量为 (3 + 1) * 2 = 8
  • 可以使用 torchsummary 库的 summary(model, input_size) 函数自动计算和打印模型总参数量和各层细节。

3. 输入输出形状

  • ​输入张量形状​[batch_size, in_features]
  • ​输出张量形状​[batch_size, out_features]
  • 训练时使用 DataLoaderbatch_size 组织数据。

4. 神经网络的优缺点

  • ​优点​
    • 精度高,在诸多领域性能领先。
    • 能够近似任意复杂函数。
    • 社区成熟,有大量框架和库支持。
  • ​缺点​
    • ​黑箱模型​,解释性差。
    • 训练时间长,计算资源消耗大。
    • 网络结构复杂,需要大量调参。
    • 在小数据集上容易​过拟合​

相关推荐
数据智研1 天前
【数据分享】(2005–2016年)基于水资源承载力的华北地区降水与地下水要素数据
大数据·人工智能·信息可视化·数据分析
likuolei1 天前
Spring AI框架完整指南
人工智能·python·spring
梵得儿SHI1 天前
(第四篇)Spring AI 核心技术攻坚:多轮对话与记忆机制,打造有上下文的 AI
java·人工智能·spring·springai生态·上下文丢失问题·三类记忆·智能客服实战案
二哈喇子!1 天前
PyTorch生态与昇腾平台适配:环境搭建与详细安装指南
人工智能·pytorch·python
lingzhilab1 天前
零知ESP32-S3 部署AI小智 2.1,继电器和音量控制以及页面展示音量
人工智能
两万五千个小时1 天前
AI Agent 框架演进
人工智能
li星野1 天前
OpenCV4X学习—核心模块Core
人工智能·opencv·学习
刘立军1 天前
如何选择FAISS的索引类型
人工智能·算法·架构
柠柠酱1 天前
【深度学习Day5】决战 CIFAR-10:手把手教你搭建第一个“正经”的卷积神经网络 (附调参心法)
深度学习
gravity_w1 天前
Hugging Face使用指南
人工智能·经验分享·笔记·深度学习·语言模型·nlp