【Anomaly Detection论文阅读记录】Resnet网络与WideResNet网络

Resnet 网络

网络结构:(层数计算不包括max pool、average pool、softmax等操作)

层数计算(以Resnet-18为例子):

conv1+conv2_x+conv3_x+conv4_x+conv5_x+fc=1+(2×2)+(2×2)+(2×2)+(2×2)+1=18

WideResNet 网络

WideResNet提出了一种新的体系结构,减少了网络的深度,增加了网络的宽度,这种结构称为宽残差网络(WRN),宽度即网络输出通道数,并通过实验证明它们远远优于常用的薄而深的网络结构。与原始架构相比,residual block中的批量归一化、激活和卷积的顺序从conv-BN-ReLU更改为BN-ReLU-conv。 卷积核都用3*3;正则化使用dropout,而ResNet用的BN在这里不好用。

Wide-resnet只比Resnet多了一个加宽因子k,原来架构相当于K=1,N表示组中的块数。网络由一个初始卷积层conv1组成,然后是residual block的conv2、conv3和conv4的3组(每个大小为N),然后是平均池和最终分类层。在实验中,conv1的大小都是固定的,而引入的加宽因子k缩放了三组conv2-4中剩余块的宽度。

结构单元

  • a是最基本的ResNet结构,b 是用了bottleneck(瓶颈)的ResNet结构;
  • d是在最基本的ResNet结构上加入dropout层的WideResNet结构。
相关推荐
喝拿铁写前端4 小时前
别再让 AI 直接写页面了:一种更稳的中后台开发方式
前端·人工智能
tongxianchao5 小时前
UPDP: A Unified Progressive Depth Pruner for CNN and Vision Transformer
人工智能·cnn·transformer
塔能物联运维5 小时前
设备边缘计算任务调度卡顿 后来动态分配CPU/GPU资源
人工智能·边缘计算
过期的秋刀鱼!6 小时前
人工智能-深度学习-线性回归
人工智能·深度学习
木头左6 小时前
高级LSTM架构在量化交易中的特殊入参要求与实现
人工智能·rnn·lstm
IE066 小时前
深度学习系列84:使用kokoros生成tts语音
人工智能·深度学习
欧阳天羲6 小时前
#前端开发未来3年(2026-2028)核心趋势与AI应用实践
人工智能·前端框架
IE066 小时前
深度学习系列83:使用outetts
人工智能·深度学习
水中加点糖6 小时前
源码运行RagFlow并实现AI搜索(文搜文档、文搜图、视频理解)与自定义智能体(一)
人工智能·二次开发·ai搜索·文档解析·ai知识库·ragflow·mineru
imbackneverdie7 小时前
如何用AI工具,把文献综述从“耗时费力”变成“高效产出”?
人工智能·经验分享·考研·自然语言处理·aigc·ai写作