深度学习---卷积神经网络

一、卷积尺寸计算公式

二、池化

池化分为最大池化和平均池化

最常用的就是最大池化,可以认为最大池化不需要引入计算,而平均池化需要引出计算(计算平均数)

每种池化还分为Pooling和AdaptiveAvgPool

Pooling(2)就是每2*2个格子pooling成一个格子,相当于减半

AdaptiveAvgPool(7)就是无论刚开始输入特征图有多大,最后只能变为7*7的特征图

最后,进行拉直,还是进行Linear操作

三、计算Loss值

我们计算Loss值,需要计算出来的概率分布,而经过卷积池化,Linear后得到的y'(上图)不是概率分布,因此我们进行y'=Softmax(y)操作,得到真正的y'的概率分布。

得到y'我们就可以 计算Loss,这里就引入了 CrossEntropy Loss: 交叉熵损失,在使用中,我们可以不用关注计算过程,我们只需调用CrossEntropyLoss即可得到Loss

得到Loss之后,我们就可以使用PyTorch中的loss.backward()方法来自动计算梯度,计算每个卷积核的梯度,更新模型。

相关推荐
IT从业者张某某几秒前
深入探索像ChatGPT这样的大语言模型-03-POST-Training:Reinforcement Learning
人工智能·语言模型·chatgpt
量子-Alex9 分钟前
【CVPR 2024】【多模态目标检测】SHIP 探究红外与可见光图像融合中的高阶协同交互
人工智能·目标检测·计算机视觉
紫雾凌寒10 分钟前
计算机视觉|从0到1揭秘Diffusion:图像生成领域的新革命
深度学习·计算机视觉·stable diffusion·aigc·文生图·图像分割·diffusion
梦想是成为算法高手11 分钟前
带你从入门到精通——自然语言处理(五. Transformer中的自注意力机制和输入部分)
pytorch·python·深度学习·自然语言处理·transformer·位置编码·自注意力机制
爱喝热水的呀哈喽44 分钟前
kan pinn
深度学习
小椿_1 小时前
探索AIGC未来:通义万相2.1与蓝耘智算平台的完美结合释放AI生产力
人工智能·aigc
小赖同学啊1 小时前
PyTorch 中实现模型训练看板实时监控训练过程中的关键指标
人工智能·pytorch·python
CoovallyAIHub1 小时前
如何用更少的内存训练你的PyTorch模型?深度学习GPU内存优化策略总结
pytorch·深度学习·性能优化
CASAIM1 小时前
CASAIM与承光电子达成深度合作,三维扫描逆向建模技术助力车灯设计与制造向数字化与智能化转型
大数据·人工智能·制造
CodeJourney.1 小时前
DeepSeek赋能Power BI:开启智能化数据分析新时代
数据库·人工智能·算法