AI学习记录 - 怎么理解 torch 的 torch.nn.BatchNorm2d

画图不易,有用就点个赞

这里创建了一个随机张量,形状为 (4, 3, 4, 4),分别对应

形状为 (batch_size, num_channels, height, width)

batch_size:批次

num_channels: 通道(什么是通道看上一章节)

python 复制代码
input_tensor = torch.randn(4, 3, 4, 4)

创建了个下面这样子的东西

计算归一化是需要参考值的,因为需要知道最大值最小值,已经参与计算的数量,参考值来自于哪里呢,如下

合并起来,可以看到 num_channels = 3,所以分别计算3次

计算均值和方差公式如下:

看不懂是不是,我也看不懂,举个简单的例子

假设一批数字为 [3, 7, 2, 9, 4]

均值

方差

然后进行归一化

计算完之后形状不会改变,只是值变了而已,上面新的数字组合起来均值接近0,方差接近1。其实认识这个计算过程意义不是很大,你就当在实际模型运算的时候,肯定会产生一些很大的值很小的值,假如生成的数据区间在[ 50,120 ],我们需要将这些值传入到激活函数里面,把 50 到120 传sigmoid激活函数里面,基本上都是0.9999...,数据之间根本没差异。

sigmoid函数,不进行归一化

sigmoid函数,归一化,将数字移动到激活函数有明显变化的区域,这就有差异了,充分发挥了激活函数的作用

相关推荐
chenglin01613 分钟前
AI 服务企业级数据隐私与安全
网络·人工智能·安全
大数据AI人工智能培训专家培训讲师叶梓33 分钟前
Merlin:面向腹部 CT 的三维视觉语言基础模型
人工智能·计算机视觉·大模型·医疗·ct·视觉大模型·医疗人工智能
AI_Auto1 小时前
【智能制造】-五大AI场景重塑智能制造
人工智能·制造
ggabb1 小时前
光芯片技术突破与AI算力应用解析
人工智能
大强同学1 小时前
Obsidian CLI + Claude Code = 王炸组合
人工智能·windows·ai编程·cli
工业机器视觉设计和实现1 小时前
微分方程的联想
人工智能·神经网络·感想
深蓝海拓1 小时前
S7-1500学习笔记:用户自定义数据类型(UDT)
笔记·学习·plc
罗罗攀1 小时前
PyTorch学习笔记|神经网络的损失函数
人工智能·pytorch·笔记·神经网络·学习
枫叶林FYL2 小时前
第9章 因果推理与物理理解
人工智能·算法·机器学习
aP8PfmxS22 小时前
从零学习Kafka:数据存储
分布式·学习·kafka