PyTorch入门学习(八):神经网络-卷积层

目录

一、数据准备

二、创建卷积神经网络模型

三、可视化卷积前后的图像


一、数据准备

首先,需要准备一个数据集来演示卷积层的应用。在这个示例中,使用了CIFAR-10数据集,该数据集包含了10个不同类别的图像数据,用于分类任务。使用PyTorch的torchvision库来加载CIFAR-10数据集,并进行必要的数据转换。

python 复制代码
import torch
import torchvision
from torch.utils.data import DataLoader

# 数据集准备
dataset = torchvision.datasets.CIFAR10(root="D:\\Python_Project\\pytorch\\dataset2", train=False, transform=torchvision.transforms.ToTensor(), download=True)

# 使用DataLoader加载数据集,每批次包含64张图像
dataLoader = DataLoader(dataset, batch_size=64)

二、创建卷积神经网络模型

接下来,创建一个简单的卷积神经网络模型,以演示卷积层的使用。这个模型包含一个卷积层,其中设置了输入通道数为3(因为CIFAR-10中的图像是彩色的,有3个通道),卷积核大小为3x3,输出通道数为6,步长为1,填充为0。

python 复制代码
import torch.nn as nn
from torch.nn import Conv2d

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        # 卷积层
        self.conv1 = Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)

    def forward(self, x):
        x = self.conv1(x)
        return x

tudui = Tudui()
print(tudui)

上述代码定义了一个Tudui类,该类继承了nn.Module,并在初始化方法中创建了一个卷积层。forward方法定义了数据在模型中的前向传播过程。

三、可视化卷积前后的图像

卷积层通常会改变图像的维度和特征。使用TensorBoard来可视化卷积前后的图像以更好地理解卷积操作。首先,导入SummaryWriter类,并创建一个SummaryWriter对象用于记录日志。

python 复制代码
from torch.utils.tensorboard import SummaryWriter

writer = SummaryWriter("logs")

然后,使用DataLoader遍历数据集,对每个批次的图像应用卷积操作,并将卷积前后的图像以及输入的图像写入TensorBoard。

python 复制代码
step = 0
for data in dataLoader:
    imgs, targets = data
    
    # 卷积操作
    output = tudui(imgs)
    
    # 将输入图像写入TensorBoard
    writer.add_images("input", imgs, step)
    
    # 由于TensorBoard不能直接显示具有多个通道的图像,我们需要重定义输出图像的大小
    output = torch.reshape(output, (-1, 3, 30, 30))
    
    # 将卷积后的图像写入TensorBoard
    writer.add_images("output", output, step)
    
    step += 1

writer.close()

在上述代码中,使用writer.add_images将输入和输出的图像写入TensorBoard,并使用torch.reshape来重定义输出图像的大小,以满足TensorBoard的显示要求。

运行上述代码后,将在TensorBoard中看到卷积前后的图像,有助于理解卷积操作对图像的影响。

完整代码如下:

python 复制代码
import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
#数据集准备
dataset = torchvision.datasets.CIFAR10("D:\\Python_Project\\pytorch\\dataset2",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#使用dataloader加载数据集,批次数为64
dataLoader = DataLoader(dataset,batch_size=64)

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui,self).__init__()
        # 该神经网络调用conv2d进行一层卷积,输入通道为3层(彩色图像为3通道),卷积核大小为3*3,输出通道为6,设置步长为1,padding为0,不进行填充。
        self.conv1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)

    def forward(self,x):
        x = self.conv1(x)
        return x

tudui = Tudui()
print(tudui)

# 生成日志
writer = SummaryWriter("logs")

step = 0
# 输出卷积前的图片大小和卷积后的图片大小
for data in dataLoader:
    imgs,targets = data
    # 卷积操作
    output = tudui(imgs)
    print(imgs.shape)
    print(output.shape)
    writer.add_images("input",imgs,step)
    """
     注意:使用tensorboard输出时需要重新定义图片大小
     对于输入的图片集imgs来说,tensor.size([64,3,32,32]),即一批次为64张,一张图片为三个通道,大小为32*32
     对于经过卷积后输出的图片集output来说,tensor.size([64,6,30,30]),通道数变成了6,tensorboard不知道怎么显示通道数为6的图片,所以如果直接输出会报错
     解决方案:
     使用reshape方法对outputs进行重定义,把通道数改成3,如果不知道批次数大小,可以使用-1代替,程序会自动匹配批次大小。
    """
    #重定义输出图片的大小
    output = torch.reshape(output,(-1,3,30,30))
    # 显示输出的图片
    writer.add_images("output",output,step)
    step = step + 1
writer.close()

参考资料:

视频教程:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】

相关推荐
新手unity自用笔记27 分钟前
项目-坦克大战学习笔记-按键按下控制方向
笔记·学习·c#
瞌睡不来39 分钟前
(刷题记录5)盛最多水的容器
c++·笔记·学习·题目记录
一 乐1 小时前
考研论坛平台|考研论坛小程序系统|基于java和微信小程序的考研论坛平台小程序设计与实现(源码+数据库+文档)
java·数据库·学习·考研·微信·小程序·源码
William_Edmund2 小时前
C++ 算法学习——1.8 悬线法
学习
朝九晚五ฺ2 小时前
【Linux探索学习】第三弹——Linux的基础指令(下)——开启新篇章的大门
linux·运维·学习
如果能为勤奋颁奖2 小时前
YOLO11改进|注意力机制篇|引入上下文锚注意力机制CAA
人工智能·深度学习·yolo
IM_DALLA2 小时前
【Verilog学习日常】—牛客网刷题—Verilog企业真题—VL74
学习·fpga开发·verilog学习
王俊山IT3 小时前
C++学习笔记----8、掌握类与对象(五)---- 嵌套类与类中枚举
开发语言·c++·笔记·学习
程序员非鱼3 小时前
深度学习中的损失函数详解
人工智能·深度学习·计算机视觉·损失函数
北极无雪3 小时前
Spring源码学习(拓展篇):SpringMVC中的异常处理
java·开发语言·数据库·学习·spring·servlet