机器学习和深度学习 --李宏毅(笔记与个人理解)Day 18

Day 18 Spatial Transformer Layer

因为单纯的cNN无法做到scaling(放大)and rotation(转),所以我们引入;

实战中也许我们可以做到 是因为 我们的training data 中包含了对data 的augmentation;

有一些 translation的性质,是因为 max pooling
这张ppt好好理解,我感觉它说明了spatial Transformen的 本质

  1. 专门训练一个layer 对图像进行旋转缩放
  2. 由于本质上还是一个神经网络结构,所以可以和CNN join it to learn 就是一起训练嘛(End to End)
  3. 不仅可以对input image 做变换(transform),也可以对CNN 的feature map进行

ok 以上说的三点就是它的特性了,应该没有哪一个是不懂的吧~

至于 why 1 ,下文来介绍它的工作原理

这张图我自己又加了一些笔记, 这里说的 是全连接的工作原理; hope you learned

我们可以用全连接来做transform ,例如
好了,基本学会了,就是数字图像处理学的那点东西,就是乘一个变换矩阵就好了
好了,没什么了不起,就是用神经网络 训练出三个变换矩阵

举例:
max pooling(IOU 连接网络?) 如何用Gradient Descent 解呢?


这里老师判断的角度应该是 对于参数的 Δ \Delta Δ w 会有一个 Δ \Delta Δy 与其对应,但是这个case 里面 Δ \Delta Δy = 0; 梯度为0 消失~

这样也能理解为什么老师认为max pooling 可以用来解,因为随着参数的变化,max的值一定会有变化,则可以进行梯度;即使max ()本身是不可微的

Interpolation -- 双线性插值
详情请参照 《数字图像处理》

固定了两个参数, 有点focus 的味道, 因为无法做旋转嘛智能做缩放

相关推荐
尘心不灭14 分钟前
Spring Boot 项目代码笔记
spring boot·笔记·后端
我爱学嵌入式15 分钟前
C 语言第 17 天学习笔记:从二级指针到内存布局的进阶指南
c语言·笔记·学习
2202_7567496936 分钟前
3深度学习Pytorch-神经网络--全连接神经网络、数据准备(构建数据类Dataset、TensorDataset 和数据加载器DataLoader)
pytorch·深度学习·神经网络·机器学习
音视频牛哥1 小时前
RTSP/RTMP播放器超低延迟实战:无人机远控视觉链路的工程实践
人工智能·深度学习·计算机视觉
大千AI助手1 小时前
哲学中的主体性:历史演进、理论范式与当代重构
人工智能·深度学习·重构·agent·哲学·智能体·主体性
ouliten2 小时前
cuda编程笔记(13)--使用CUB库实现基本功能
笔记·cuda
西猫雷婶2 小时前
python学智能算法(三十四)|SVM-KKT条件回顾
开发语言·人工智能·python·算法·机器学习·支持向量机
AntBio2 小时前
The Rising Star in Tumor Targets - Claudin18.2 Antibody Now Available
数据库·经验分享·深度学习·其他
2202_756749692 小时前
2深度学习Pytorch-自动微分--梯度计算、梯度上下文控制(累计梯度、梯度清零)
人工智能·pytorch·深度学习
欧阳小猜4 小时前
机器学习④【算法详解:从决策树到随机森林】
算法·决策树·机器学习