EfficientNet论文笔记

EfficientNet论文笔记

通过NAS平衡了channel,depth,resolution,发现在相同的FLOPs下,同时增加 depth和 resolution的效果最好。

数据集效果小于resolution怎么办?

EfficientNet---b0框架

表格中每个MBConv后会跟一个数字1或6,这里的1或6就是倍率因子n,即MBConv中第一个 1x1的卷积层会将输入特征矩阵的channels扩充为n倍 ,其中k3x3或k5x5表示MBConv中Depthwise Conv所采用的卷积核大小。Channels表示通过该Stage后输出特征矩阵的Channels。

MBConv结构

Swish激活函数+SE模块

  1. 第一个升维的1x1卷积层,它的卷积核个数是输入特征矩阵channel的n倍,当n等于1不需要该层。
  2. 仅当输入MBConv结构的特征矩阵与输出的特征矩阵shape相同时才使用。在源码实现中只有使用shortcut的时候才有Dropout层。

SE模块:

第一个激活函数替换成Swish激活函数

其他版本的详细参数:

  1. input_size代表训练网络时输入网络的图像大小
  2. width_coefficient代表channel维度上的倍率因子,比如在 EfficientNetB0中Stage1的3x3卷积层所使用的卷积核个数是32,那么在B6中就是 32 × 1.8 = 57.6接着取整到离它最近的8的整数倍即56,其它Stage同理(加速运算)。
  3. depth_coefficient代表depth维度上的倍率因子(仅针对Stage2到Stage8),比如在EfficientNetB0中Stage7的 Li=4,那么在B6中就是 4(block) × 2.6 = 10.4 接着向上取整即11
  4. drop_connect_rate是在MBConv结构中dropout层使用的drop_rate,
  5. dropout_rate是最后一个全连接层前的dropout层(在stage9的Pooling与FC之间)的dropout_rate。

强化学习

相关推荐
数智工坊6 小时前
【ECNDNet论文阅读|图像去噪经典】:融合残差、BN与空洞卷积的增强型去噪网络
网络·论文阅读
数智工坊1 天前
【RT-DETR论文阅读】:首个实时端到端Transformer检测器,DETR正式超越YOLO
论文阅读·yolo·transformer
数智工坊1 天前
【Transfer CLIP论文阅读】跨模态大模型赋能!CLIP迁移学习实现超强泛化图像去噪
论文阅读·人工智能·迁移学习
小马哥crazymxm1 天前
arXiv论文周选 (2026-W18)
论文阅读·科技·考研
薛定e的猫咪2 天前
强化学习中的OOD检测:从状态异常到分布偏移
论文阅读·人工智能·深度学习
Chunyyyen2 天前
【第四十三周】论文阅读
论文阅读
数智工坊3 天前
【Mask2Former论文阅读】:基于掩码注意力的通用分割Transformer,大一统全景/实例/语义分割
论文阅读·深度学习·transformer
大模型最新论文速读3 天前
Select to Think:蒸馏 token 排序能力,效果平均提升24%
论文阅读·人工智能·深度学习·机器学习·自然语言处理
chnyi6_ya3 天前
论文笔记 | RefineAnything:面向完美局部细节的多模态区域精细化
论文阅读·人工智能·学习
数智工坊4 天前
【SAM-DETR论文阅读】:基于语义对齐匹配的DETR极速收敛检测框架
网络·论文阅读·人工智能·深度学习·transformer