pytorch 今日小知识2——F.avg_pool2d、clamp

复制代码
今天看到
复制代码
def gem(self, ipts):
    return F.avg_pool2d(ipts.clamp(min=self.eps).pow(self.p), (1, ipts.size(-1))).pow(1. / self.p)

这个函数中的F.avg_pool2d 不是很理解就查了一下

  1. ipts.clamp(1.0e-6) :

    这个操作将ipts中的每个元素限制在[1.0e-6, +inf)的范围内。也就是说,任何小于1.0e-6(一个非常小的正数)的值都会被替换为1.0e-6,而大于或等于1.0e-6的值则保持不变。这样做通常是为了避免数值不稳定问题,尤其是在进行对数运算、除法运算或幂运算时。

  2. .pow(6.5) :

    ipts(经过clamp操作后)中的每个元素提升到6.5的幂。

  3. F.avg_pool2d(..., (1, ipts.size(-1))) :

    使用F.avg_pool2d函数对张量进行平均池化操作。这里有两个关键的参数:

    • 第一个参数是输入张量,即经过clamp和pow操作后的ipts
    • 第二个参数(1, ipts.size(-1))定义了池化窗口的大小。这里,池化窗口的高度为1(即在高度上不进行池化),而宽度为ipts的最后一个维度的大小(即ipts.size(-1))。这意味着池化操作将在最后一个维度上进行,并且沿着这个维度取平均值。
  4. .pow(1. / 6.5) :

    将池化后的结果张量中的每个元素取6.5的倒数次幂。这实际上是前面.pow(6.5)操作的逆操作,用于恢复原始数据的某种形式

复制代码
import torch
import torch.nn.functional as F

F.avg_pool2d()数据是四维输入

input维度: (batch_size,channels,height,width)

kenerl维度:(二维:表示width的跨度)channel和输入的channle一致,如果数据是三维,则channel为1.(如果只写一个数n,kenerl=(n,n))

stride默认和kenerl一致,这是个二维的,所以在height和width上均和kenerl一致,越界同样丢弃。跟cnn卷积一致

在H和W维度求平均

复制代码
input=torch.randn(10,3,4,4)
m=F.avg_pool2d(input,(4,4))
print(m.size())

torch.Size([10, 3, 1, 1])

input = torch.tensor([[1,1,1,1,1],[1,1,1,1,1],[0,0,0,1,1],[1,1,1,1,1],[1,1,1,1,1]]).unsqueeze(0).float()
print(input.size())
print(input)
m = F.avg_pool2d(input,kernel_size=(4,4))
m
torch.Size([1, 5, 5])
tensor([[[1., 1., 1., 1., 1.],
         [1., 1., 1., 1., 1.],
         [0., 0., 0., 1., 1.],
         [1., 1., 1., 1., 1.],
         [1., 1., 1., 1., 1.]]])
tensor([[[0.8125]]])

input = torch.tensor([[1,1,1,1,1],[1,1,1,1,1],[0,0,0,1,1],[1,1,1,1,1],[1,1,1,1,1]]).unsqueeze(0).float()
print(input.size())
print(input)
m = F.avg_pool2d(input,kernel_size=(4,4),stride=1)
m
torch.Size([1, 5, 5])
tensor([[[1., 1., 1., 1., 1.],
         [1., 1., 1., 1., 1.],
         [0., 0., 0., 1., 1.],
         [1., 1., 1., 1., 1.],
         [1., 1., 1., 1., 1.]]])
tensor([[[0.8125, 0.8750],
         [0.8125, 0.8750]]])
相关推荐
哈哈你是真的厉害几秒前
解构 AIGC 的“核动力”引擎:华为 CANN 如何撑起万亿参数的大模型时代
人工智能·aigc·cann
DeniuHe2 分钟前
Pytorch中的直方图
pytorch
Ekehlaft2 分钟前
这款国产 AI,让 Python 小白也能玩转编程
开发语言·人工智能·python·ai·aipy
哈__3 分钟前
CANN多模型并发部署方案
人工智能·pytorch
深鱼~4 分钟前
Attention机制加速实战:基于ops-transformer的性能优化
深度学习·性能优化·transformer·cann
予枫的编程笔记5 分钟前
【Linux入门篇】Linux运维必学:Vim核心操作详解,告别编辑器依赖
linux·人工智能·linux运维·vim操作教程·程序员工具·编辑器技巧·新手学vim
慢半拍iii6 分钟前
对比分析:ops-nn与传统深度学习框架算子的差异
人工智能·深度学习·ai·cann
心疼你的一切8 分钟前
解构CANN仓库:AIGC API从底层逻辑到实战落地,解锁国产化AI生成算力
数据仓库·人工智能·深度学习·aigc·cann
啊阿狸不会拉杆16 分钟前
《机器学习导论》第 5 章-多元方法
人工智能·python·算法·机器学习·numpy·matplotlib·多元方法
薯一个蜂蜜牛奶味的愿16 分钟前
模块化显示神经网络结构的可视化工具--BlockShow
人工智能·深度学习·神经网络