Pytorch笔记之分类

文章目录


前言

使用Pytorch进行MNIST分类,使用TensorDataset与DataLoader封装、加载本地数据集。


一、导入库

python 复制代码
import numpy as np
import torch
from torch import nn, optim
from torch.utils.data import TensorDataset, DataLoader # 数据集工具
from load_mnist import load_mnist # 本地数据集

二、数据处理

1、导入本地数据集,将标签值设置为int类型,构建张量

2、使用TensorDataset与DataLoader封装训练集与测试集

python 复制代码
# 构建数据
x_train, y_train, x_test, y_test = \
    load_mnist(normalize=True, flatten=False, one_hot_label=False)
# 数据处理
x_train = torch.from_numpy(x_train.astype(np.float32))
y_train = torch.from_numpy(y_train.astype(np.int64))
x_test = torch.from_numpy(x_test.astype(np.float32))
y_test = torch.from_numpy(y_test.astype(np.int64))
# 数据集封装
train_dataset = TensorDataset(x_train, y_train)
test_dataset = TensorDataset(x_test, y_test)
batch_size = 64
train_loader = DataLoader(dataset=train_dataset,
                          batch_size=batch_size,
                          shuffle=True)
test_loader = DataLoader(dataset=test_dataset,
                          batch_size=batch_size,
                          shuffle=True)

三、构建模型

输入到全连接层之前需要把(batch_size,28,28)展平为(batch_size,784)

交叉熵损失函数整合了Softmax,在模型中可以不添加Softmax

python 复制代码
# 继承模型
class FC(nn.Module):
    def __init__(self):
        super().__init__()
        self.fc1 = nn.Linear(784, 10)
        self.softmax = nn.Softmax(dim=1)
    def forward(self, x):
        y = self.fc1(x.view(x.shape[0],-1))
        y = self.softmax(y)
        return y
# 定义模型
model = FC()
loss_function = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)

四、迭代训练

从DataLoader中取出x和y,进行前向和反向的计算

python 复制代码
for epoch in range(10):
    print('Epoch:', epoch)
    for i,data in enumerate(train_loader):
        x, y = data
        y_pred = model.forward(x)
        loss = loss_function(y_pred, y)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

五、模型评估

在测试集中进行验证

使用.item()获得tensor的取值

python 复制代码
	correct = 0
    for i,data in enumerate(test_loader):
        x, y = data
        y_pred = model.forward(x)
        _, y_pred = torch.max(y_pred, 1)
        correct += (y_pred == y).sum().item()
    acc = correct / len(test_dataset)
    print('Accuracy:{:.2%}'.format(acc))

总结

记录了TensorDataset与DataLoader的使用方法,模型的构建与训练和上一篇Pytorch笔记之回归相似。

相关推荐
光电的一只菜鸡41 分钟前
《PyTorch深度学习建模与应用(参考用书)》(三)——深度神经网络
pytorch·深度学习·dnn
Ztopcloud极拓云视角2 小时前
Gemini 3.1 Pro vs GPT-5.4 Pro:API成本1/3、性能差多少?选型实测笔记
人工智能·笔记·gpt·ai·语言模型
Fleshy数模3 小时前
基于 ResNet18 的迁移学习:食物图像分类实现
人工智能·分类·迁移学习
郝学胜-神的一滴5 小时前
PyTorch自动微分核心解析:从原理到实战实现权重更新
人工智能·pytorch·python·深度学习·算法·机器学习
鱼鳞_5 小时前
Java学习笔记_Day22
java·笔记·学习
自小吃多6 小时前
TMC220X芯片 串口工具连接交互
笔记·嵌入式硬件
ZhiqianXia6 小时前
PyTorch学习笔记(6) : torch.autograd
pytorch·笔记·学习
网络工程小王7 小时前
【提示词工程和思维链的讲解】学习笔记
人工智能·笔记·学习
后藤十八里7 小时前
极验4消消乐验证码逆向笔记
笔记·爬虫·python
圣光SG7 小时前
项目分析与程序设计 学习笔记
笔记·学习·学习笔记·程序设计·项目分析