【学习】感受野

感受野(receptive field)是指在神经网络中,某一层输出的特征图上的一个像素点对应输入图像的区域大小。在深度神经网络中,随着网络层数的增加,特征图的感受野也会逐渐增大。这是因为每一层的卷积操作都会扩大感受野。

为什么卷积操作会扩大感受野

如上图所示,对于一个5x5的图像,第一次采用了3x3卷积,第二次也是3x3卷积,但是图中只是画出了第二次卷积中获得的一个点。

第二次卷积的一个点,他的感受野是第一次卷积的9个点,而第一次卷积对于的9个点,如图中红圈1和红圈2所示,该层9个点可以包含整个5x5图像。所以第二层卷积的感受野是5x5,而第一层是3x3。

假设我们有一个输入图像,大小为5x5。在第一层使用3x3的卷积核进行卷积操作时,卷积核会滑动在输入图像上,每次都对应一个3x3的区域,生成一个输出特征图。这个输出特征图的每个像素点,都受到了输入图像上相应的3x3区域内的信息影响。这样,第一层的每个输出像素点的感受野是3x3,因为它只能看到输入图像的一个3x3的局部区域。

现在,让我们来看第二层。假设我们再次使用一个3x3的卷积核对第一层的输出特征图进行卷积操作。这个3x3的卷积核会滑动在第一层的输出特征图上,每次也对应一个3x3的区域。但是这次不同的是,第一层的每个输出像素点都代表了输入图像上一个5x5的局部区域的信息。因此,第二层的每个输出像素点的感受野是5x5,因为它可以看到输入图像的一个5x5的局部区域。

换句话说,在第二层中,每个输出像素点都可以追溯到输入图像的更大区域,这是因为它们是由第一层输出的像素点通过卷积操作得到的。因此,第二层的感受野比第一层大,这种情况会随着网络层数的增加而继续发生,从而导致特征图的感受野逐渐增大。

相关推荐
程序员打怪兽1 天前
详解Visual Transformer (ViT)网络模型
深度学习
CoovallyAIHub3 天前
仿生学突破:SILD模型如何让无人机在电力线迷宫中发现“隐形威胁”
深度学习·算法·计算机视觉
CoovallyAIHub3 天前
从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南
深度学习·算法·计算机视觉
CoovallyAIHub3 天前
Le-DETR:省80%预训练数据,这个实时检测Transformer刷新SOTA|Georgia Tech & 北交大
深度学习·算法·计算机视觉
CoovallyAIHub3 天前
强化学习凭什么比监督学习更聪明?RL的“聪明”并非来自算法,而是因为它学会了“挑食”
深度学习·算法·计算机视觉
CoovallyAIHub3 天前
YOLO-IOD深度解析:打破实时增量目标检测的三重知识冲突
深度学习·算法·计算机视觉
用户1474853079744 天前
AI-动手深度学习环境搭建-d2l
深度学习
OpenBayes贝式计算4 天前
解决视频模型痛点,TurboDiffusion 高效视频扩散生成系统;Google Streetview 涵盖多个国家的街景图像数据集
人工智能·深度学习·机器学习
OpenBayes贝式计算4 天前
OCR教程汇总丨DeepSeek/百度飞桨/华中科大等开源创新技术,实现OCR高精度、本地化部署
人工智能·深度学习·机器学习
在人间耕耘5 天前
HarmonyOS Vision Kit 视觉AI实战:把官方 Demo 改造成一套能长期复用的组件库
人工智能·深度学习·harmonyos