每天五分钟计算机视觉:VGG网络相对于AlexNet网络有哪些不同?

本文重点

在前面的课程中,我们已经学习了VGG网络模型,也学习了AlexNet网络模型,AlexNet模型先于VGG网络模型产生,所以VGG在一定程度上要优于AlexNet模型,二者来看一下,二者究竟有什么不同?

深度

AlexNet是一个8层的卷积神经网络,而VGG16是它的两倍,众所周知,神经网络的深度越大,往往学习能力越强,所以VGG的性能相对于AlexNet有了一个明显的提升。

卷积核

VGG相对于AlexNet模型,VGG只使用了3*3的卷积核,这带来了参数量的极大减少,我们来比较一下。

AlexNet的第一个卷积层输出维度96维,而卷积核大小为11*11,那么参数量为96*3*11

VGG的参数量为64*3*3*3

96*3*11/(64*3*3*3)=20

也就是说二者相差20倍,那么计算量就相差了20倍,这就是的VGG虽然深度比AlexNet大,但是参数量却没有增加的很夸装,整个模型只有550M,而8层的AlexNet达到了240M。

池化

VGG中池化的核大小为2*2,然后步长为2。而AlexNet中采用了重叠池化方案,核大小为3*3,步长为2。这样不重叠的池化的计算量会少一些。但是重叠的池化能够有效的降低过拟合问题。

数据增强

VGG使用了更多的数据增强的方式,即Scale Jittering。先固定一种裁剪尺寸m*m,比如224*224,然后把图片的最短边缩放到一个大于m的值,长边也相应的变化,最后裁剪出一张m*m的图片。

这种方法比直接将图片缩放到224*224来说,存在更大的操作空间,当然有可能剪掉图片的重要区域,但是在大数据下,这种影响可以忽略不计。

相关推荐
WWZZ20253 小时前
快速上手大模型:深度学习11(数据增强、微调、目标检测)
人工智能·深度学习·算法·目标检测·计算机视觉·大模型·具身智能
安如衫3 小时前
【机器学习基础】Attention in Transformers:注意力机制
笔记·深度学习·学习·机器学习·注意力机制
大白IT3 小时前
第四部分:决策规划篇——汽车的“大脑”(第8章:行为决策——车辆的“驾驶策略师”)
人工智能·算法·机器学习
2501_941148153 小时前
人工智能赋能智慧城市互联网应用:智能交通、环境监测与公共服务优化实践探索》
人工智能
大白IT3 小时前
第二部分:感知篇——汽车的“眼睛”与“耳朵”(第5章:环境感知与理解——从“看见”到“看懂”)
人工智能·目标跟踪·自动驾驶·汽车
不知更鸟4 小时前
本地文档问答系统RAG全流程详解
人工智能
边缘计算社区4 小时前
谷歌正式跟进苹果PCC,华为OPPO同步入局:边缘AI隐私战打响
人工智能·华为
IT_陈寒4 小时前
SpringBoot 3.2 性能优化全攻略:7个让你的应用提速50%的关键技巧
前端·人工智能·后端
亚马逊云开发者5 小时前
Amazon OpenSearch 助力高效 RAG 系统落地
人工智能
suke5 小时前
听说前端又死了?
前端·人工智能·程序员