最大池化pytorch

**前置知识:

1、

复制代码
self.maxpool_2=MaxPool2d(kernel_size=3,ceil_mode=True)
复制代码
output=self.maxpool_2(input)

输入:张量的形状是(N,C,H,W)或(C,H,W)

  • Input: (N,C,Hin,Win)or (C,Hin,Win)

  • Output: (N,C,Hout,Wout)or (C,Hout,Wout)

参数:

  • 池化核(池化窗口)大小:kernel_size (Union[ int, Tuple[ int, int] ]) -- the size of the window to take a max over

  • 步长:stride (Union[ int, Tuple[ int, int] ] ) -- the stride of the window. Default value is kernel_size(默认是池化核的大小)

  • 补边缘padding (Union[ int, Tuple[ int, int] ]) -- Implicit negative infinity padding to be added on both sides

  • 取整方式:ceil_mode (bool) -- when True, will use ceil instead of floor to compute the output shape(True:向上取整,保留不足的部分;False:向下取整,去除不足一份的部分)

  • 空洞卷积dilation (Union[ int, Tuple[ int, int] ]) -- a parameter that controls the stride of elements in the window

2、池化的作用:

从特征图中提取最有代表性的特征;防止过拟合,实现降维;保持平移不变性。

(即保留重要特征,同时减少数据量,使模型训练得更快 eg: 1080P高清------>720P高清)

**代码:

1、对单一二维矩阵进行最大池化:

input 单一二维矩阵reshape(变成3D或4D)------>nn 创建神经元------>output 计算并输出

python 复制代码
import torch
from torch import nn
from torch.nn import MaxPool2d

input=torch.tensor([
    [1,2,0,3,1],
    [0,1,2,3,1],
    [1,2,1,0,0],
    [5,2,3,1,1],
    [2,1,0,1,1] #dtype=torch.float32把整数变成小数
])

input=torch.reshape(input,(-1,1,5,5)) #-1是占位符,后续自动计算batch_size的大小
print(input.shape)

#神经元
class Xigua(nn.Module):
    def __init__(self):
        super().__init__()
        self.maxpool_2=MaxPool2d(kernel_size=3,ceil_mode=True) #保留不足的部分,也把它算进去

    def forward(self,input):
        output=self.maxpool_2(input)
        return output

xigua1=Xigua()
output=xigua1(input)
print(output)

2、对RGB图像进行池化:

input 导入并加载RGB图片数据集------>nn 创建神经元------>output 计算并记录

python 复制代码
import torch
import torchvision.datasets
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

test_set=torchvision.datasets.CIFAR10(root="./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)

dataloader=DataLoader(test_set,batch_size=64)

#神经元
class Xigua(nn.Module):
    def __init__(self):
        super().__init__()
        self.maxpool_2=MaxPool2d(kernel_size=3,ceil_mode=True) #保留不足的部分,也把它算进去

    def forward(self,input):
        output=self.maxpool_2(input)
        return output

xigua1=Xigua()
writer=SummaryWriter("logs2")
step=1
for imgs,targets in dataloader:
    print(imgs.shape)
    writer.add_images("input",imgs,step)
    imgs=xigua1(imgs)
    print(imgs.shape)
    writer.add_images("output",imgs,step)
    step=step+1
    if step>=3:
        break
writer.close()
相关推荐
白熊1881 小时前
【大模型LLM】梯度累积(Gradient Accumulation)原理详解
人工智能·大模型·llm
愚戏师1 小时前
机器学习(重学版)基础篇(算法与模型一)
人工智能·算法·机器学习
仰望星空的凡人2 小时前
【JS逆向基础】数据库之MongoDB
javascript·数据库·python·mongodb
F_D_Z2 小时前
【PyTorch】图像多分类项目部署
人工智能·pytorch·python·深度学习·分类
pingzhuyan3 小时前
python入门篇12-虚拟环境conda的安装与使用
python·ai·llm·ocr·conda
香蕉可乐荷包蛋3 小时前
排序算法 (Sorting Algorithms)-Python示例
python·算法·排序算法
音视频牛哥3 小时前
打通视频到AI的第一公里:轻量RTSP服务如何重塑边缘感知入口?
人工智能·计算机视觉·音视频·大牛直播sdk·机器视觉·轻量级rtsp服务·ai人工智能
Wendy14415 小时前
【灰度实验】——图像预处理(OpenCV)
人工智能·opencv·计算机视觉
中杯可乐多加冰5 小时前
五大低代码平台横向深度测评:smardaten 2.0领衔AI原型设计
人工智能
无线图像传输研究探索5 小时前
单兵图传终端:移动场景中的 “实时感知神经”
网络·人工智能·5g·无线图传·5g单兵图传