吴恩达深度学习(9)

经典的神经网络:

残差网络(ResNet)

太深的神经网络容易出现梯度消失与梯度爆炸等问题。

跳跃连接,能从一层中得到激活并将其传递给下一层,甚至更深的网络层。利用这个可以训练网络层很深很深的残差网络(ResNet:使用了残差结构的网络)。

为什么使用残差网络

上述证明意味着残差块比较容易学习恒等函数,添加残差块到中间或者尾部并不影响网络的表现。残差网络两个有效性在于:让额外层学习起恒等函数非常简单,并且总能保证他几乎不会影响总体的表现,有时候甚至可以提升网络的表现。

网络中的网络与1X1卷积

1X1卷积可以做什么

改变长和宽的大小,可以通过池化层实现,想改变通道数,需要通过1X1卷积

初始网络动机:

使用1X1可以降低计算成本,只要使用合理,不会对数据造成影响。

初始网络(Inception)

Inception模块的输入一般是激活值,或者是来自上一个的输出。

Inception网络就是多次重复使用Inception模块

MobileNets网络(深度可分离卷积):可以大大减小计算量

深度可分离卷积由深度卷积逐点卷积两个部分构成

  • 首先要看一下深度卷积

  • 接下来要看逐点卷积:

用1X1X3的核,先相乘再相加。一共用5个核

网络的升级:加入残差网络、在块前加入一个扩展层

EfficientNet网络:根据条件,调整网络的大小

使用开源码:

迁移学习:

可以下载训练好权重的网络迁移到自己的任务上,

数据增强的方法:

1、镜像、裁剪、旋转、局部弯曲

2、色彩变化(在红、绿、蓝通道上加上扰动)、PCA色彩增强

相关推荐
晚霞的不甘12 小时前
Flutter for OpenHarmony 实现计算几何:Graham Scan 凸包算法的可视化演示
人工智能·算法·flutter·架构·开源·音视频
陈天伟教授12 小时前
人工智能应用- 语言处理:04.统计机器翻译
人工智能·自然语言处理·机器翻译
大江东去浪淘尽千古风流人物13 小时前
【VLN】VLN仿真与训练三要素 Dataset,Simulators,Benchmarks(2)
深度学习·算法·机器人·概率论·slam
Dfreedom.13 小时前
图像处理中的对比度增强与锐化
图像处理·人工智能·opencv·锐化·对比度增强
wenzhangli713 小时前
OoderAgent 企业版 2.0 发布的意义:一次生态战略的全面升级
人工智能·开源
AI_567813 小时前
SQL性能优化全景指南:从量子执行计划到自适应索引的终极实践
数据库·人工智能·学习·adb
cyyt13 小时前
深度学习周报(2.2~2.8)
人工智能·深度学习
阿杰学AI13 小时前
AI核心知识92——大语言模型之 Self-Attention Mechanism(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·transformer·自注意力机制
陈天伟教授13 小时前
人工智能应用- 语言处理:03.机器翻译:规则方法
人工智能·自然语言处理·机器翻译
Σίσυφος190013 小时前
PCL 姿态估计 RANSAC + SVD(基于特征匹配)
人工智能·机器学习