CNN的特性

1、位移不变性

它指的是无论物体在图像中的什么位置,卷积神经网络的识别结果都应该是一样的。

因为CNN就是利用一个kernel在整张图像上不断步进来完成卷积操作的,而且在这个过程中kernel的参数是共享的。换句话说,它其实就是拿了同一张"通缉令"在"全国范围"内查找"嫌疑犯",这样一来理论上就具备了位移不变性了(当然,受限于步进跨度、卷积核大小等因素的影响,某些条件下CNN也可能会存在"漏"的情况)。

CNN 缺乏"空间整体"理解

CNN会将上述两个图都判定为face------这是因为组成face的各个部件确实都在图像中出现了,只不过它们的排列是混乱的。但对于人类来说,这样的预测结果显然是比较"滑稽可笑"的,或者说无法接受的。

Capsule Network据说可以给出有效的解决办法

2、 尺寸不变性

尺度不变性,简单来讲就是指物体在被测试图像中的尺寸大小原则上不会影响模型的预测结果。

卷积神经网络,它的kernel size做为超参数是固定大小的,并不会动态调节。

通过小尺寸filter的堆叠来达到同样的效果,实际上比直接用大尺寸filter更节省参数数量,所以可以看到现在各个主流的神经网络框架中用的filter size普遍都不大(或者小尺寸filter占比高)。当然,这也并不代表大尺寸的filter"一无事处"。如果某些情况下大尺寸的filter刚好可以匹配到特征,那么此时它的效率要高于小尺寸的堆叠。正是基于这样的考虑,有些神经网络框架会选择"大小通吃"的策略来选择卷积核,比如著名的inception model。

所以简单来说,卷积神经网络就是通过"大"和"小"卷积核的搭配和层叠,来满足图像识别中的尺度不变性的要求,同时降低参数数量的。

3、 旋转不变性

旋转不变性,简单来讲是指物体的旋转角度不会影响模型的预测结果。

(1) 池化层的"顺带"作用

我们知道,max pooling是针对数据在一定范围内取它们的最大值,比如下面所示的是2*2空间大小的操作范例:

这种操作过程"顺带"赋予了CNN一个关键能力------即物体在旋转一定的小角度后,有某些概率下得到的结果值不会产生变化,从而让它似乎"具备"了旋转不变性。

从上述的描述中我们也可以看到,CNN的这种旋转不变性其实是"不可靠"的,带有一定的随机性质。

(2) 数据增强起到了作用

正因为算法层面对于旋转不变性没有特殊的设计,所以我们在应用卷积神经网络时更要重视这一问题。一种典型的办法就是采用数据增强,以"人为构造数据的方式"提升训练出来的模型在应对"旋转"问题时的鲁棒性。

数据增强在深度神经网络中的重要性是毋庸置疑的。

相关推荐
唐兴通个人2 分钟前
唐兴通应邀为平安财产险北京分公司高层主讲《新媒体营销》专项培训,引领保险业AI时代内容营销变革
人工智能
朗心心理8 分钟前
朗心科技:以数智化引领心理健康服务新标杆
大数据·人工智能·科技·心理健康·朗心科技·数智化心理育人·一站式心理中心建设
LaughingZhu8 分钟前
Product Hunt 每日热榜 | 2026-03-23
数据库·人工智能·经验分享·神经网络·chatgpt
一个帅气昵称啊1 小时前
基于.NET AgentFramework开发OpenClaw智能体框架
人工智能·自然语言处理·c#·.net·openclaw
Hello.Reader1 小时前
深度学习 — 从人工智能到深度学习的演进之路(一)
人工智能·深度学习
xingyuzhisuan2 小时前
适合推荐系统训练的GPU服务器配置选择
人工智能·ai
mwq301232 小时前
TencentOS Server 4 部署 Coze Studio 完整指南
人工智能
IT_陈寒2 小时前
一文搞懂JavaScript的核心概念
前端·人工智能·后端
IT_陈寒2 小时前
Java开发者必看!5个提升开发效率的隐藏技巧,你用过几个?
前端·人工智能·后端
做cv的小昊3 小时前
结合代码读3DGS论文(10)——ICLR 2025 3DGS加速&压缩新工作Sort-Free 3DGS论文及代码解读
论文阅读·人工智能·游戏·计算机视觉·3d·图形渲染·3dgs