PyTorch搭建神经网络

核心结论:用 PyTorch 搭建神经网络主要有两种方式,自定义模型灵活适配复杂需求,Sequential 快速搭建简单顺序结构,关键是明确层结构、初始化参数和查看模型信息。

一、核心概念:模型是 "层的组合"

神经网络的核心是把不同功能的层(比如全连接层、激活层)按顺序拼起来,就像搭积木。PyTorch 里所有模型和层都基于**Module**类,只要继承它并实现两个核心方法,就能自定义模型。

二、两种搭建方式

1. 自定义模型(灵活款)

适合复杂结构(比如多分支、特殊逻辑),需要手动定义层和数据流向。

  • 步骤:
    1. 继承torch.nn.Module,在__init__里定义各层(比如全连接层、激活层),并初始化权重(比如 Xavier 适配 Tanh,He 适配 ReLU)。
    2. forward里写数据传播路径:输入→第一层→激活函数→第二层→...→输出。
  • 优势:想怎么改就怎么改,支持各种复杂逻辑。

根据上图的神经网络Pytorch代码实现:

  • 第1个隐藏层:使用Xavier 正态分布初始化权重,激活函数使用 Tanh。

  • 第 2个隐藏层:使用 He正态分布初始化权重,激活函数使用ReLU。

  • 输出层:按默认方式初始化,激活函数使用 Softmax。

    #自定义模型
    import torch
    import torch.nn as nn

    class Model(nn.Module):
    def init(self):
    super(Model,self).init() #继承父类初始化
    self.linear1 = nn.Linear(3,4) #第一个隐藏层,输入3个特征,输出4个特征
    nn.init.xavier_normal_(self.linear1.weight) #初始化权重
    self.linear2 = nn.Linear(4,4) #第二个隐藏层,输入4个特征,输出4个特征
    nn.init.kaiming_normal_(self.linear2.weight) #第二个隐藏层,输入4个特征,输出4个特征
    self.linear3 = nn.Linear(4,2) #输出层,输入4个特征,输出1个特征,默认使用He初始化

    复制代码
      def forward(self,x):
          x = self.linear1(x)     #经过第一个隐藏层
          x = torch.relu(x)       #激活函数
          x = self.linear2(x)     #经过第二个隐藏层
          x = torch.relu(x)       #激活函数
          x = self.linear3(x)     #输出层
          x = torch.softmax(x,dim=1)    #激活函数
          return x        

    model = Model()
    output = model(torch.randn(10,3))
    print("输出:\n",output)
    print()

    #使用named_paremeters()查看各层参数
    print("模型参数:")
    for name,param in model.named_parameters():
    print(name,":",param.size())
    print()

    #使用state_dict()查看各层参数
    print("模型参数:\n",model.state_dict())

查看模型结构与参数数量:

可使用 torchsummary.summary 来查看模型结构与参数数量。需要先安装torchsumm库:

复制代码
pip install torchsummary

#模型结构和参数查看
from torchsummary import summary
# input_size:特征数,batch_size:样本数
summary(model, input_size=(3,), batch_size=10, device="cpu")

2. Sequential 搭建(快捷款)

适合简单的 "顺序结构"(一层接一层,无分支),直接按顺序传入层即可。

  • 步骤:

    1. 把要用到的层按顺序放进nn.Sequential()里,自动按顺序执行。
    2. apply()方法批量初始化各层参数(比如给所有全连接层初始化权重)。
  • 优势:代码简洁,不用写forward,快速搭建基础模型。

    #构建模型
    model = nn.Sequential(
    nn.Linear(3,4),
    nn.Tanh(),
    nn.Linear(4,4),
    nn.ReLU(),
    nn.Linear(4,2),
    nn.Softmax(dim=1)
    )

    #初始化参数
    def init_weights(m):
    """判断当前层是否为线性层(全连接层)。
    如果是,则执行下面的初始化操作;
    如果不是(例如卷积层、RNN层),则跳过。"""
    if type(m) == nn.Linear:
    nn.init.xavier_normal_(m.weight) #初始化权重
    m.bias.data.fill_(0.01) #填充0.01偏置

    model.apply(init_weights)#apply会遍历所有子模块依次调用函数

    output = model(torch.randn(10,3))
    print("输出:\n",output)

三、关键操作:查看模型信息

搭好模型后,需要确认结构和参数是否正确:

  • 查看参数:用named_parameters()state_dict(),能看到每一层的权重、偏置数值。
  • 查看结构和参数数量:用torchsummary.summary(),输入输入数据的形状,就能看到每层的输出形状、参数个数,避免结构出错。

四、通俗总结

  • 简单任务用 Sequential,几行代码搞定;复杂任务用自定义模型,灵活适配需求。
  • 初始化权重有讲究:ReLU 配 He 初始化,Tanh/Sigmoid 配 Xavier 初始化,避免模型 "学不动"。
  • 搭完必看结构和参数,确认每层输出符合预期,不然训练时容易报错。
相关推荐
宝贝儿好1 小时前
【强化学习】第十章:连续动作空间强化学习:随机高斯策略、DPG算法
人工智能·python·深度学习·算法·机器人
Evand J2 小时前
【课题推荐】深度学习驱动的交通流量预测系统(基于LSTM的交通流量预测系统),MATLAB实现
人工智能·深度学习·matlab·课题简介
Project_Observer2 小时前
工时日志在项目进度管理中扮演着怎样的角色?
数据库·深度学习·机器学习
海天一色y2 小时前
粒子群算法(PSO)优化BP神经网络:从原理到实战
人工智能·深度学习·神经网络
Dev7z3 小时前
基于深度学习的违章停车检测系统的设计与实现
人工智能·深度学习·违章停车·人行道违停·禁停区违停·双排停车·斑马线违停
儒雅芝士3 小时前
RethinkFun深度学习笔记
人工智能·笔记·深度学习
kebijuelun3 小时前
Learning Personalized Agents from Human Feedback:用人类反馈训练可持续个性化智能体
人工智能·深度学习·算法·transformer
盼小辉丶4 小时前
PyTorch实战(30)——使用TorchScript和ONNX导出通用PyTorch模型
人工智能·pytorch·深度学习·模型部署
麻瓜生活睁不开眼5 小时前
Android 14 开机自启动第三方 APK 全流程踩坑与最终解决方案(含 RescueParty 避坑)
android·java·深度学习
AI人工智能+5 小时前
CNN+CRNN+NER:如何实现食品经营许可证秒级结构化信息提取?
深度学习·ocr·食品经营许可证识别