深度学习入门:极简神经网络搭建与参数计算全攻略

🔥 深度学习入门:极简神经网络搭建与参数计算全攻略

  • [一、深度学习 vs 机器学习:步骤差异一目了然](#一、深度学习 vs 机器学习:步骤差异一目了然)
  • [二、神经网络参数计算:手把手算清 26 个参数](#二、神经网络参数计算:手把手算清 26 个参数)
    • [📊 网络结构 Mermaid 图](#📊 网络结构 Mermaid 图)
  • [三、PyTorch 神经网络搭建:4 种装包方式 + 完整代码](#三、PyTorch 神经网络搭建:4 种装包方式 + 完整代码)
    • [🚀 完整神经网络代码实现](#🚀 完整神经网络代码实现)
  • 四、核心细节拆解:吃透神经网络关键逻辑
    • [1. 网络搭建核心规则](#1. 网络搭建核心规则)
    • [2. 前向传播必知要点](#2. 前向传播必知要点)
  • 五、总结🌟

深度学习的魅力,在于告别繁琐特征工程,用端到端的神经网络自动挖掘数据规律。本文带你从零搭建神经网络,吃透参数计算逻辑,手把手完成 PyTorch 代码实现,小白也能轻松上手~✨


一、深度学习 vs 机器学习:步骤差异一目了然

机器学习的流程像手工组装 ,深度学习更像一键自动化,核心步骤对比如下:

模型类型 核心步骤 特点
机器学习 准备数据 → 数据预处理 → 特征工程 → 模型训练 → 模型测试 → 效果评估 依赖人工提取特征,步骤繁琐、门槛高
深度学习 准备数据 → 搭建神经网络 → 模型训练 → 模型测试 神经网络自动提取特征,步骤极简、适配复杂任务

💡 核心结论:深度学习省略了预处理 + 特征工程,只需喂入数据,神经网络就能自动完成特征学习,大幅降低建模成本!


二、神经网络参数计算:手把手算清 26 个参数

神经网络的参数 =权重(w)+ 偏置(b) ,每个神经元的参数数量 = 上层神经元数 + 1(偏置项)。

本文以3→3→2→2结构的神经网络为例,逐层计算参数:

📊 网络结构 Mermaid 图

渲染错误: Mermaid 渲染失败: Parse error on line 4: ... C --> D[输出层 2个神经元]```**图表说明**:这是一个全连 -----------------------^ Expecting 'SEMI', 'NEWLINE', 'SPACE', 'EOF', 'SHAPE_DATA', 'STYLE_SEPARATOR', 'START_LINK', 'LINK', 'LINK_ID', got 'NODE_STRING'


三、PyTorch 神经网络搭建:4 种装包方式 + 完整代码

搭建前先安装依赖包,推荐4 种零失败安装方式,适配所有 PyCharm 版本:

  1. 系统管理员终端执行:pip install torchsummary

  2. PyCharm 终端切换项目路径安装

  3. PyCharm 设置→Python 解释器→搜索安装

  4. 代码爆红Alt+Enter一键安装(最便捷!)

🚀 完整神经网络代码实现

python 复制代码
import torch
import torch.nn as nn

# 1. 定义神经网络类,继承nn.Module
class ModelDemo(nn.Module):
    def __init__(self):
        super(ModelDemo, self).__init__()
        # TODO 1.1 搭建网络层:全连接层Linear
        # 隐藏层1:输入3 → 输出3
        self.hidden1 = nn.Linear(3, 3)
        # 隐藏层2:输入3 → 输出2
        self.hidden2 = nn.Linear(3, 2)
        # 输出层:输入2 → 输出2
        self.output = nn.Linear(2, 2)

        # TODO 1.2 参数初始化(实战可省略,框架自动初始化)
        # 隐藏层1:Xavier初始化
        nn.init.xavier_normal_(self.hidden1.weight)
        nn.init.zeros_(self.hidden1.bias)
        # 隐藏层2:Kaiming初始化
        nn.init.kaiming_normal_(self.hidden2.weight)
        nn.init.zeros_(self.hidden2.bias)

    # TODO 2 前向传播(函数名固定为forward,自动调用)
    def forward(self, x):
        # 第一层隐藏层:加权求和 + Sigmoid激活
        x = torch.sigmoid(self.hidden1(x))
        # 第二层隐藏层:加权求和 + ReLU激活
        x = torch.relu(self.hidden2(x))
        # 输出层:加权求和 + Softmax激活(dim=-1按行计算)
        x = torch.softmax(self.output(x), dim=-1)
        return x

# 实例化模型
if __name__ == "__main__":
    model = ModelDemo()
    print(model)

四、核心细节拆解:吃透神经网络关键逻辑

1. 网络搭建核心规则

  • 输入层无需手动搭建,框架根据输入特征数自动生成

  • 全连接层统一用nn.Linear,参数为(输入特征数, 输出特征数)

  • 激活函数搭配:隐藏层用 Sigmoid/ReLU,输出层分类任务用 Softmax

2. 前向传播必知要点

  • 函数名必须是 forward,创建模型时自动调用,不可修改

  • dim=-1表示按最后一个维度计算,即单样本独立运算

  • 前向传播本质:输入数据→逐层加权求和→激活函数转换→输出预测值


五、总结🌟

本文从步骤对比→参数计算→代码实现,完整覆盖神经网络入门核心:

  1. 深度学习仅 4 步,比机器学习少 2 个关键环节,效率翻倍

  2. 全连接网络参数 = 权重 + 偏置,本文案例总参数 26 个

  3. PyTorch 搭建固定套路:定义类→初始化网络层→前向传播

  4. 4 种装包方式全覆盖,新手零报错上手

掌握这套逻辑,就能轻松应对深度学习基础建模,后续可扩展卷积神经网络、循环神经网络等复杂结构~🚀

相关推荐
Metaphor6922 小时前
使用 Python 提取 PDF 文件中的文本、表格、图片
开发语言·python·pdf
重生之我要成为代码大佬2 小时前
pytorch与视觉检测
人工智能·pytorch·深度学习·大模型·视觉检测
2301_796588502 小时前
Navicat连ClickHouse出现中文乱码怎么办_字符集编码调整
jvm·数据库·python
编码者卢布2 小时前
【App Service】常规排查 App Service 启动 Application Insights 无数据的步骤 (.NET版本)
python·flask·.net
初圣魔门首席弟子2 小时前
深度学习:学习率(Learning Rate)超通俗讲解
人工智能
2401_837163892 小时前
CSS如何处理带有状态切换的折叠菜单_利用BEM修饰符管理状态
jvm·数据库·python
LONGZETECH2 小时前
破解汽车实训难题!龙泽科技仿真软件,助力院校教学与大赛备赛
人工智能·科技·架构·汽车·汽车仿真教学软件
workflower2 小时前
机器人城市应用-室外总坪清扫
运维·人工智能·机器人·集成测试·人机交互·软件需求
前端不太难2 小时前
鸿蒙游戏 + AI:自动测试与自动发布
人工智能·游戏·harmonyos