PyTorch2 Python深度学习 - 卷积神经网络(CNN)介绍实例 - 使用MNIST识别手写数字示例

锋哥原创的PyTorch2 Python深度学习视频教程:

https://www.bilibili.com/video/BV1eqxNzXEYc

课程介绍

​基于前面的机器学习Scikit-learn,深度学习Tensorflow2课程,我们继续讲解深度学习PyTorch2,所以有些机器学习,深度学习基本概念就不再重复讲解,大家务必学习好前面两个课程。本课程主要讲解基于PyTorch2的深度学习核心知识,主要讲解包括PyTorch2框架入门知识,环境搭建,张量,自动微分,数据加载与预处理,模型训练与优化,以及卷积神经网络(CNN),循环神经网络(RNN),生成对抗网络(GAN),模型保存与加载等。

PyTorch2 Python深度学习 - 卷积神经网络(CNN)介绍实例 - 使用MNIST识别手写数字示例

MNIST(Modified National Institute of Standards and Technology)数据集是一个常用于机器学习和深度学习领域的经典数据集,特别是在图像识别任务中。它由美国国家标准与技术研究院(NIST)提供,广泛用于手写数字识别的研究和算法测试。

主要特点:

  1. 数据内容:

    • MNIST数据集包含了28x28像素的灰度图像,表示从0到9的手写数字。每个图像展示了一个单一的手写数字(0到9之一)。

    • 数据集分为两个部分:

      • 训练集:包含60,000个样本,用于训练模型。

      • 测试集:包含10,000个样本,用于测试和评估模型的性能。

  2. 标签信息:

    • 每个图像都有一个对应的标签,表示图像中手写数字的真实值(即0到9之间的某个数字)。
  3. 数据预处理:

    • 图像的大小是28x28像素,灰度级别为0到255,其中0表示白色,255表示黑色。图像通常在输入神经网络之前会被标准化或者归一化。
  4. 应用领域:

    • 手写数字识别:这是MINIST数据集的经典应用,用于测试各种机器学习算法的性能。

    • 分类问题:可以用于对比不同模型(如支持向量机、神经网络、决策树等)的分类准确性。

下面是具体示例:

复制代码
import torch
from torch import nn, optim
from torch.utils.data import DataLoader
from torchvision import transforms, datasets
​
# 1,数据预处理和加载
transform = transforms.Compose([
    transforms.ToTensor(),  # 将图片转换为Tensor
    transforms.Normalize((0.5,), (0.5,))  # 数据归一化
])
​
trainset = datasets.MNIST(
    root='data',
    train=True,
    download=True,
    transform=transform
)
testset = datasets.MNIST(
    root='data',
    train=False,
    download=True,
    transform=transform
)
​
trainloader = DataLoader(trainset, batch_size=64, shuffle=True)
testloader = DataLoader(testset, batch_size=64, shuffle=False)
​
# 2,定义模型
model = nn.Sequential(
    # 第一层卷积层,输入1通道,输出32通道,卷积核大小3x3,填充1,
    nn.Conv2d(1, 32, kernel_size=3, padding=1),
    nn.ReLU(),  # 激活函数ReLU
    nn.MaxPool2d(2, 2),  # 池化层,池化核大小2x2,步长2
​
    # 第二层卷积层,输入32通道,输出64通道,卷积核大小3x3,填充1,
    nn.Conv2d(32, 64, kernel_size=3, padding=1),
    nn.ReLU(),  # 激活函数ReLU
    nn.MaxPool2d(2, 2),  # 池化层,池化核大小2x2,步长2
​
    # 展平操作,将数据从二维转为一维
    nn.Flatten(),
​
    # 第一个全连接层,输入64*7*7,输出128
    nn.Linear(64 * 7 * 7, 128),
    nn.ReLU(),
​
    # 第二个全连接层,输出10个分类(数字0-9)
    nn.Linear(128, 10)
)
​
# 3, 定义损失函数与优化器
criterion = nn.CrossEntropyLoss()  # 交叉熵损失函数
optimizer = optim.Adam(model.parameters(), lr=0.001)  # 优化器,Adam优化算法
​
# 4,训练模型
epochs = 5
model.train()  # 训练模式
for epoch in range(epochs):
    for images, labels in trainloader:
        # 前向传播
        outputs = model(images)
        loss = criterion(outputs, labels)  # 计算损失
​
        # 反向传播和优化
        optimizer.zero_grad()  # 清空梯度
        loss.backward()  # 反向传播
        optimizer.step()  # 更新参数
​
        print(f'Epoch [{epoch + 1}/{epochs}],  Loss: {loss.item():.4f}')
​
# 5, 测试模型
model.eval()  # 测试模式
correct = 0
total = 0
with torch.no_grad():  # 禁用梯度计算
    for images, labels in testloader:
        outputs = model(images)
        _, predicted = torch.max(outputs.data, 1)  # 获取预测结果
        total += labels.size(0)
        correct += (predicted == labels).sum().item()
print(f'Accuracy: {100 * correct / total:.2f}%')

运行输出:

相关推荐
AI爱好者10 分钟前
WordPress保卫战:用Python分析日志并封禁恶意爬虫
python
nvd1140 分钟前
Gidgethub 使用指南
开发语言·python
___波子 Pro Max.1 小时前
Python模块导入详解与最佳实践
python
哥布林学者2 小时前
吴恩达深度学习课程二: 改善深层神经网络 第三周:超参数调整,批量标准化和编程框架 课后习题和代码实践
深度学习·ai
WWZZ20252 小时前
快速上手大模型:深度学习11(数据增强、微调、目标检测)
人工智能·深度学习·算法·目标检测·计算机视觉·大模型·具身智能
安如衫2 小时前
【机器学习基础】Attention in Transformers:注意力机制
笔记·深度学习·学习·机器学习·注意力机制
CNRio2 小时前
ZUC国密算法深度研究:原理、实现与应用(Python、Rust)
python·算法·rust
Python大数据分析@3 小时前
数据分析为什么常用Jupyter而不是直接使用Python脚本或Excel?
python·jupyter·数据分析
一株菌子3 小时前
10.9总结
开发语言·python
o***Z4483 小时前
Python包管理工具
开发语言·python