从零构建神经网络:PyTorch的nn.Module详解

**一、为什么需要nn.Module?**‌

nn.Module 是 PyTorch 中所有神经网络模型的基类,它提供了以下核心功能:

  • 模块化设计‌:将网络拆分为可重用的层(如卷积层、全连接层)
  • 自动参数管理 ‌:自动跟踪所有可训练参数(parameters()方法)
  • GPU加速支持‌:一键将模型迁移到GPU
  • 模型保存与加载‌:支持序列化模型结构和参数

二、定义你的第一个神经网络

1. 继承nn.Module构建网络

以下代码实现一个3层全连接网络,用于图像分类(以FashionMNIST为例):

python 复制代码
import torch
import torch.nn as nn
import torchvision
import torchvision.transforms as transforms
import matplotlib.pyplot as plt

# 设置随机种子保证可重复性
torch.manual_seed(42)

class SimpleNN(nn.Module):
    def __init__(self, input_size, hidden_size, num_classes):
        super(SimpleNN, self).__init__()
        self.fc1 = nn.Linear(input_size, hidden_size)  # 输入层 -> 隐藏层
        self.relu = nn.ReLU()                          # 激活函数
        self.fc2 = nn.Linear(hidden_size, num_classes) # 隐藏层 -> 输出层
    
    def forward(self, x):
        out = self.fc1(x)
        out = self.relu(out)
        out = self.fc2(out)
        return out

# 初始化模型
model = SimpleNN(input_size=784, hidden_size=128, num_classes=10)
print(model)

输出结果:

python 复制代码
SimpleNN(
  (fc1): Linear(in_features=784, out_features=128, bias=True)
  (relu): ReLU()
  (fc2): Linear(in_features=128, out_features=10, bias=True)
)

三、数据准备与预处理

1. 加载FashionMNIST数据集

python 复制代码
# 数据预处理
transform = transforms.Compose([
    transforms.ToTensor(),                      # 转换为Tensor
    transforms.Normalize((0.5,), (0.5,))        # 归一化到[-1, 1]
])

# 下载数据集
train_dataset = torchvision.datasets.FashionMNIST(
    root='./data', 
    train=True,
    download=True,
    transform=transform
)

test_dataset = torchvision.datasets.FashionMNIST(
    root='./data',
    train=False,
    transform=transform
)

# 创建数据加载器
batch_size = 100
train_loader = torch.utils.data.DataLoader(
    dataset=train_dataset,
    batch_size=batch_size,
    shuffle=True
)

test_loader = torch.utils.data.DataLoader(
    dataset=test_dataset,
    batch_size=batch_size,
    shuffle=False
)

# 查看数据集信息
print("训练集大小:", len(train_dataset))
print("测试集大小:", len(test_dataset))
classes = ['T-shirt', 'Trouser', 'Pullover', 'Dress', 'Coat', 
           'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle boot']

四、训练神经网络

1. 配置损失函数与优化器

python 复制代码
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = model.to(device)

criterion = nn.CrossEntropyLoss()  # 交叉熵损失(已包含Softmax)
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)

2. 训练循环实现

python 复制代码
num_epochs = 10
total_step = len(train_loader)
loss_history = []
acc_history = []

for epoch in range(num_epochs):
    model.train()  # 设置为训练模式(启用Dropout/BatchNorm)
    running_loss = 0.0
    correct = 0
    total = 0
    
    for i, (images, labels) in enumerate(train_loader):
        # 将数据移动到设备
        images = images.reshape(-1, 28*28).to(device)
        labels = labels.to(device)
        
        # 前向传播
        outputs = model(images)
        loss = criterion(outputs, labels)
        
        # 反向传播与优化
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        
        # 统计指标
        running_loss += loss.item()
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()
    
    # 计算本epoch指标
    epoch_loss = running_loss / total_step
    epoch_acc = 100 * correct / total
    loss_history.append(epoch_loss)
    acc_history.append(epoch_acc)
    
    # 打印训练进度
    print(f'Epoch [{epoch+1}/{num_epochs}], '
          f'Loss: {epoch_loss:.4f}, '
          f'Accuracy: {epoch_acc:.2f}%')

# 可视化训练过程
plt.figure(figsize=(12,4))
plt.subplot(1,2,1)
plt.plot(loss_history, label='Training Loss')
plt.title('Loss Curve')
plt.subplot(1,2,2)
plt.plot(acc_history, label='Training Accuracy')
plt.title('Accuracy Curve')
plt.show()

五、模型评估与预测

1. 测试集评估

python 复制代码
model.eval()  # 设置为评估模式(关闭Dropout/BatchNorm)
with torch.no_grad():
    correct = 0
    total = 0
    for images, labels in test_loader:
        images = images.reshape(-1, 28*28).to(device)
        labels = labels.to(device)
        outputs = model(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

    print(f'测试集准确率: {100 * correct / total:.2f}%')

2. 可视化预测结果

python 复制代码
# 获取测试集样本
dataiter = iter(test_loader)
images, labels = next(dataiter)
images = images.reshape(-1, 28*28).to(device)

# 预测结果
outputs = model(images)
_, preds = torch.max(outputs, 1)
preds = preds.cpu().numpy()
images = images.cpu().reshape(-1, 28, 28).numpy()

# 绘制预测结果
plt.figure(figsize=(10,8))
for i in range(20):
    plt.subplot(4,5,i+1)
    plt.imshow(images[i], cmap='gray')
    plt.title(f"Pred: {classes[preds[i]]}\nTrue: {classes[labels[i]]}")
    plt.axis('off')
plt.tight_layout()
plt.show()

六、模型保存与加载

1. 保存整个模型

python 复制代码
torch.save(model, 'fashion_mnist_model.pth')
loaded_model = torch.load('fashion_mnist_model.pth')

2. 只保存参数(推荐方式)

python 复制代码
torch.save(model.state_dict(), 'model_weights.pth')

# 加载时需要先创建相同结构的模型
new_model = SimpleNN(784, 128, 10).to(device)
new_model.load_state_dict(torch.load('model_weights.pth'))

七、常见问题与调试

Q1:输入形状不匹配报错

  • 错误信息:RuntimeError: mat1 and mat2 shapes cannot be multiplied
  • 解决方法:检查输入是否被正确展平,使用x = x.view(-1, input_size)

Q2:模型准确率始终不变

  • 检查是否忘记调用optimizer.zero_grad()
  • 确认参数requires_grad=True(使用nn.Module时会自动处理)

Q3:过拟合问题

  • 添加正则化:在优化器中设置weight_decay=0.01
  • 添加Dropout层:
python 复制代码
self.dropout = nn.Dropout(p=0.5)  # 在__init__中添加
out = self.dropout(out)           # 在forward中添加

八、小结与下篇预告

  • 关键知识点‌:

    1. nn.Module 提供标准化的模型构建方式
    2. 训练流程四要素:数据加载、前向传播、损失计算、反向传播
    3. 模型评估必须使用model.eval()模式
  • 下篇预告 ‌:

    第四篇将实战MNIST手写数字识别,并深入解析数据增强与模型调优技巧!

相关推荐
云卓SKYDROID7 分钟前
无人机载重模块技术要点分析
人工智能·无人机·科普·高科技·云卓科技
云卓SKYDROID9 分钟前
无人机RTK技术要点与难点分析
人工智能·无人机·科普·高科技·云卓科技
麻雀无能为力1 小时前
CAU数据挖掘 支持向量机
人工智能·支持向量机·数据挖掘·中国农业大学计算机
智能汽车人1 小时前
Robot---能打羽毛球的机器人
人工智能·机器人·强化学习
埃菲尔铁塔_CV算法1 小时前
基于 TOF 图像高频信息恢复 RGB 图像的原理、应用与实现
人工智能·深度学习·数码相机·算法·目标检测·计算机视觉
ζั͡山 ั͡有扶苏 ั͡✾1 小时前
AI辅助编程工具对比分析:Cursor、Copilot及其他主流选择
人工智能·copilot·cursor
东临碣石821 小时前
【AI论文】数学推理能否提升大型语言模型(LLM)的通用能力?——探究大型语言模型推理能力的可迁移性
人工智能·语言模型·自然语言处理
IT古董2 小时前
【第二章:机器学习与神经网络概述】04.回归算法理论与实践 -(3)决策树回归模型(Decision Tree Regression)
神经网络·机器学习·回归
24毕业生从零开始学ai2 小时前
长短期记忆网络(LSTM):让神经网络拥有 “持久记忆力” 的神奇魔法
rnn·神经网络·lstm
未来智慧谷2 小时前
微软医疗AI诊断系统发布 多智能体协作实现疑难病例分析
人工智能·microsoft·医疗ai