卷积神经网络学习问题总结

问题一: 深度学习中的损失函数和应用场景

回归任务:

均方误差函数(MSE)适用于回归任务,如预测房价、预测股票价格等。

python 复制代码
import torch.nn as nn  
loss_fn = nn.MSELoss()  

分类任务:

交叉熵损失函数(Cross-Entropy Loss)适用于分类任务,如图像分类、文本分类等。对于多分类问题,该损失函数可与Softmax激活函数结合使用。

python 复制代码
import torch.nn as nn  
loss_fn = nn.CrossEntropyLoss()  

二分类任务:

二元交叉熵损失函数(Binary Cross-Entropy Loss)适用于二分类问题,如预测是否为垃圾邮件、预测股票涨跌等。对于二分类问题,该损失函数可与Sigmoid激活函数结合使用。

python 复制代码
import torch.nn as nn  
loss_fn = nn.BCELoss() 

问题二: 空洞卷积

灰色部分为卷积核权重

白色部分为空,值为0

dilation rate:空洞率

权重值的间隔为dilation rate - 1

例:m = 3, p = 0, s = 1时

(m表示卷积核大小,p 表示零填充大小(zero-padding), s 表示步长(stride),d表示空洞率(dilation))

若d=1:

若d=2:

优点:在不增加参数的情况下增大感受野,适用于图片size较大,或需要快速感受全局信息的情况。

通过设置不同的dilation rate捕获多尺度上下文信息,适用于需要捕获图片的多层次的情况,如语义分割等。

问题:存在网格效应,远距离点之间的信息可能不相关。

解决办法:HDC

一、叠加卷积的 dilation rate 不能有大于1的公约数。如 [2, 4, 6] 则不是一个好的三层卷积,依然会出现 gridding effect。解决网格效应

二、将 dilation rate 设计成锯齿状结构,例如 [1, 2, 5, 1, 2, 5] 循环结构。同时捕获远近信息

三、满足:

最常用:

问题三: 残差网络

反向传播路径太长,训练难度增加

问题:

若卷积后的结果与输入X的shape不同, 则不能直接相加

当步长不为1,图片大小发生变化

当通道数与输入通道不同,图片通道数 发生变化

解决:

使用一个1x1的卷积核来改变X的shape,使得其能与卷积后的结果shape相匹配(不知道^ ^

残差模型VS等深卷积:

相关推荐
工程师老罗1 分钟前
Python中__call__和__init__的区别
开发语言·pytorch·python
dyyx1111 分钟前
Python GUI开发:Tkinter入门教程
jvm·数据库·python
工程师老罗2 分钟前
为什么模型前向传播要写两步?
pytorch
ViiTor_AI2 分钟前
2026 年 AI 配音工具深度对比:视频旁白与有声书为什么越来越依赖语音克隆?
人工智能·音视频·语音识别
Rabbit_QL4 分钟前
【LLM原理学习】N-gram 语言模型实战教学指南(从原理到代码)
人工智能·学习·语言模型
嵌入小生0074 分钟前
数据结构基础内容 + 顺序表 + 单链表的学习---嵌入式入门---Linux
linux·数据结构·学习·算法·小白·嵌入式软件
宇钶宇夕5 分钟前
CoDeSys入门实战一起学习(二十六):功能块(FBD)运算块与EN/ENO指令精讲及计数控制案例
运维·学习·自动化·软件工程
xhbaitxl7 分钟前
算法学习day30-贪心算法
学习·算法·贪心算法
2401_836121608 分钟前
更优雅的测试:Pytest框架入门
jvm·数据库·python
会算数的⑨9 分钟前
Spring AI Alibaba学习(一)—— RAG
java·人工智能·后端·学习·spring·saa