PyTorch实现MNIST手写数字识别:从数据到模型全解析

本文将带你完整实现一个基于PyTorch的MNIST手写数字识别模型,包含数据加载、网络构建、训练优化和评估全流程。


1.数据加载与预处理

MNIST数据集包含6万张28×28像素的手写数字灰度图,我们使用PyTorch内置工具进行加载:

python 复制代码
# 数据预处理:归一化到[-1,1]范围
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize([0.5], [0.5])
])

# 加载数据集
train_dataset = mnist.MNIST('../data/', train=True, transform=transform, download=True)
test_dataset = mnist.MNIST('../data/', train=False, transform=transform)

# 创建数据加载器
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=128, shuffle=False)

数据可视化展示样本分布:

python 复制代码
examples = enumerate(test_loader)
_, (data, targets) = next(examples)

plt.figure(figsize=(10,6))
for i in range(12):
    plt.subplot(3,4,i+1)
    plt.imshow(data[i][0], cmap='gray')
    plt.title(f"Label: {targets[i]}")
    plt.axis('off')
plt.tight_layout()

2. 神经网络模型设计

我们构建一个包含两个隐藏层的全连接网络,使用批归一化加速收敛:

python 复制代码
class DigitRecognizer(nn.Module):
    def __init__(self, input_size, hidden1, hidden2, output_size):
        super().__init__()
        self.flatten = nn.Flatten()
        self.layer1 = nn.Sequential(
            nn.Linear(input_size, hidden1),
            nn.BatchNorm1d(hidden1)
        )
        self.layer2 = nn.Sequential(
            nn.Linear(hidden1, hidden2),
            nn.BatchNorm1d(hidden2)
        )
        self.out = nn.Linear(hidden2, output_size)
    
    def forward(self, x):
        x = self.flatten(x)
        x = F.relu(self.layer1(x))
        x = F.relu(self.layer2(x))
        return F.softmax(self.out(x), dim=1)

网络结构说明

  • 输入层:784个神经元(28×28展平)
  • 隐藏层1:300个神经元 + 批归一化
  • 隐藏层2:100个神经元 + 批归一化
  • 输出层:10个神经元(对应0-9数字)
  • 激活函数:ReLU
  • 输出处理:Softmax归一化概率

3. 模型训练与优化

采用带动量的随机梯度下降(SGD)优化器,配合学习率衰减策略:

python 复制代码
# 初始化模型
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = DigitRecognizer(784, 300, 100, 10).to(device)

# 损失函数与优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)

# 训练循环
for epoch in range(20):
    # 每5轮衰减学习率
    if epoch % 5 == 0:
        optimizer.param_groups[0]['lr'] *= 0.9
        print(f"Epoch {epoch}: LR={optimizer.param_groups[0]['lr']:.6f}")
    
    # 训练阶段
    model.train()
    for images, labels in train_loader:
        images, labels = images.to(device), labels.to(device)
        
        # 前向传播
        outputs = model(images)
        loss = criterion(outputs, labels)
        
        # 反向传播
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
    
    # 验证阶段
    model.eval()
    with torch.no_grad():
        # 计算验证集准确率
        correct = 0
        total = 0
        for images, labels in test_loader:
            images, labels = images.to(device), labels.to(device)
            outputs = model(images)
            _, predicted = torch.max(outputs, 1)
            correct += (predicted == labels).sum().item()
            total += labels.size(0)
        
        acc = 100 * correct / total
        print(f"Epoch {epoch}: Test Acc = {acc:.2f}%")

关键技术点

  1. 交叉熵损失函数:$$ \mathcal{L} = -\sum_{i=1}^{N} y_i \log(\hat{y}_i) $$
  2. 动量优化:$$ v_t = \gamma v_{t-1} + \eta \nabla_\theta J(\theta) $$
  3. 学习率衰减:每5轮学习率乘以0.9
  4. 批归一化:加速训练并提高泛化能力

4. 训练结果分析

经过20轮训练,模型在测试集上达到98%+的准确率:

复制代码
Epoch 0: Test Acc = 96.32%
Epoch 5: Test Acc = 97.86% (LR=0.008100)
Epoch 10: Test Acc = 98.12% (LR=0.007290)
Epoch 15: Test Acc = 98.24% (LR=0.006561)
Epoch 19: Test Acc = 98.37%

性能优化建议

  1. 尝试卷积神经网络(CNN)提升特征提取能力
  2. 增加数据增强(旋转、平移等)
  3. 使用更先进的优化器(Adam, RMSProp)
  4. 引入Dropout防止过拟合

5. 模型部署与应用

训练好的模型可保存并用于实时识别:

python 复制代码
# 保存模型
torch.save(model.state_dict(), 'mnist_model.pth')

# 加载模型进行预测
loaded_model = DigitRecognizer(784, 300, 100, 10)
loaded_model.load_state_dict(torch.load('mnist_model.pth'))
loaded_model.eval()

# 单样本预测
test_image = test_dataset[0][0].unsqueeze(0)
prediction = loaded_model(test_image)
print(f"预测数字: {torch.argmax(prediction)}")

完整代码已上传至GitHub项目链接

通过本实现,你已掌握PyTorch图像分类的核心流程,可扩展应用于更复杂的计算机视觉任务!

相关推荐
studytosky1 小时前
深度学习理论与实战:MNIST 手写数字分类实战
人工智能·pytorch·python·深度学习·机器学习·分类·matplotlib
哥布林学者2 小时前
吴恩达深度学习课程三: 结构化机器学习项目 第一周:机器学习策略(二)数据集设置
深度学习·ai
【建模先锋】3 小时前
精品数据分享 | 锂电池数据集(四)PINN+锂离子电池退化稳定性建模和预测
深度学习·预测模型·pinn·锂电池剩余寿命预测·锂电池数据集·剩余寿命
九年义务漏网鲨鱼3 小时前
【大模型学习】现代大模型架构(二):旋转位置编码和SwiGLU
深度学习·学习·大模型·智能体
CoovallyAIHub3 小时前
破局红外小目标检测:异常感知Anomaly-Aware YOLO以“俭”驭“繁”
深度学习·算法·计算机视觉
云雾J视界4 小时前
AI芯片设计实战:用Verilog高级综合技术优化神经网络加速器功耗与性能
深度学习·神经网络·verilog·nvidia·ai芯片·卷积加速器
噜~噜~噜~13 小时前
最大熵原理(Principle of Maximum Entropy,MaxEnt)的个人理解
深度学习·最大熵原理
小女孩真可爱14 小时前
大模型学习记录(五)-------调用大模型API接口
pytorch·深度学习·学习
水月wwww18 小时前
深度学习——神经网络
人工智能·深度学习·神经网络
青瓷程序设计18 小时前
花朵识别系统【最新版】Python+TensorFlow+Vue3+Django+人工智能+深度学习+卷积神经网络算法
人工智能·python·深度学习