最大池化、非线性激活、线性层

一、最大池化原理

二、最大池化实例

复制代码
import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

dataset = torchvision.datasets.CIFAR10("../chihua",train=False,
                               download=True,transform=torchvision.transforms.ToTensor()) # 对数据集的操作
dataloader = DataLoader(dataset,batch_size=64) # 加载数据集

构建最大池化神经网络:

复制代码
class SUN(nn.Module):
    def __init__(self):
        super(SUN, self).__init__()
        self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=False)

    def forward(self, input):
        output = self.maxpool1(input)
        return output

sun = SUN()

使用tensorboard显示图片:

复制代码
writer = SummaryWriter("../logs_maxpool")
step = 0

for data in dataloader:
    imgs,targets = data
    writer.add_image("input", imgs,  step, dataformats="NCHW")# 注意输入的图片,可能出现数据类型的不匹配
    output = sun(imgs)
    writer.add_image("output", output, step, dataformats="NCHW") # 数据通道的设置
    step +=1

writer.close()

显示的结果:

池化的作用,减小了像素,但是对应的,变得更加模糊。

三、非线性激活

非线性激活的作用,就是主要是给模型加上一些非线性特征,非线性特征越多,才能训练出符合各种特征的模型,提高模型的泛化能力。

四、非线性激活的实例

复制代码
import torch
import torchvision
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

input = torch.tensor([[1,-0.5],
                      [-1,3]])
input = torch.reshape(input,(-1, 1, 2, 2))
print(input.shape)

dataset = torchvision.datasets.CIFAR10("../datas", train = False, download=True,
                                       transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, batch_size=64)

class SUN(nn.Module):
    def __init__(self):
        super(SUN, self).__init__()
        self.relu1 = ReLU() # 添加对应的网络
        self.sigmoid = Sigmoid()

    def forward (self, input):
        output = self.sigmoid(input) # 使用了Sigmoid函数
        return output

sun = SUN()
step = 0
write = SummaryWriter("../logs_relu")
for data in dataloader:
    imgs,targets = data
    write.add_image("input", imgs, global_step=step)
   output = sun(imgs)
    write.add_image("output",output,global_step=step)
    step +=1

write.close()

结果

五、 线性层

主要作用是通过线性变换将输入数据映射到一个新的空间,改变数据的维度,便于后续层进一步处理。‌

六、线性层实例

复制代码
import torch
import torchvision
from torch import nn
from torch.nn import Linear
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

dataset = torchvision.datasets.CIFAR10("../datalinear", train=False,
                                       transform=torchvision.transforms.ToTensor(), download=True)

dataloader = DataLoader(dataset, batch_size=64, drop_last=True)# 此处特别注意,要设置该参数,否则出现报错:
python 复制代码
RuntimeError: mat1 and mat2 shapes cannot be multiplied (1x49152 and 196608x10)
复制代码
class SUN(nn.Module):
    def __init__(self):
        super(SUN, self).__init__()
        self.linear1 = Linear(196608, 10)

    def forward(self,input):
        output = self.linear1(input)
        return output

sun = SUN()


# writer = SummaryWriter("../logslinear")
# step = 0

for data in dataloader:
    imgs, targets = data
    print(imgs.shape)
    # output = torch.reshape(imgs,(1, 1, 1, -1))
    # 展平
    output = torch.flatten(imgs)
    print(output.reshape)
    output = sun(output)
    print(output.shape)

结果:

将196608的in_future输出out_future变为10。

相关推荐
寻星探路几秒前
【Python 全栈测开之路】Python 基础语法精讲(三):函数、容器类型与文件处理
java·开发语言·c++·人工智能·python·ai·c#
且去填词几秒前
构建基于 DeepEval 的 LLM 自动化评估流水线
运维·人工智能·python·自动化·llm·deepseek·deepeval
dagouaofei3 分钟前
不同 AI 生成 2026 年工作计划 PPT 的使用门槛对比
人工智能·python·powerpoint
IRevers5 分钟前
【目标检测】深度学习目标检测损失函数总结
人工智能·pytorch·深度学习·目标检测·计算机视觉
知识分享小能手8 分钟前
Ubuntu入门学习教程,从入门到精通,Ubuntu 22.04 中的大数据 —— 知识点详解 (24)
大数据·学习·ubuntu
RockHopper20259 分钟前
为什么具身智能系统需要能“自我闭环”的认知机制
人工智能·具身智能·具身认知
itwangyang5209 分钟前
Windows + Conda + OpenMM GPU(CUDA)完整安装教程-50显卡系列
人工智能·windows·python·conda
幽络源小助理9 分钟前
逆向工程系统学习资源图谱(2026):从 Windows 内核、安卓安全到游戏协议分析的全栈教程清单
学习·安全·游戏·逆向工程
Larry_Yanan12 分钟前
Qt多进程(九)命名管道FIFO
开发语言·c++·qt·学习·ui
ybb_ymm14 分钟前
尝试新版idea及免费学习使用
java·学习·intellij-idea