2025暑期—05神经网络-卷积神经网络

  1. 卷积神经网络实际上就是避免过拟合,就是"特征"神经网络。这个特征和卷积核相关。卷积和相关类似,有点是本质属性和输出属性的感觉。

着重注意三通道卷积

padding 上下左右、前后都要加边

池化就是解决特征过多问题,缩小1倍较多。均值池化,最大池化。

卷积是线性的,叠加激活函数解决非线性神经网络问题。

池化层和卷积层反向传播问题,对于池化层,使用最大池化可以使大多数神经元置零,减少反向传播神经元参数。

欠拟合的原因主要是网络深度不够,一般采用扩大网络规模和深度,或改进方法。

过拟合就是训练误差低,测试误差高,结果泛化及处理未知数据能力不强。调整训练算法。权重衰减及LR正则化方法。

DropOut,工厂干活时10个人一定出现分化,反映到神经网络,某些神经元会不停调正权值,非常积极,会产生振荡,还有神经元不被激活,不参与任何训练。如何改变这种情况。针对10个人,可以分成2班,形成均匀分配。每一天都随机选择5个人上班,因为人多,工作时间长,所以被选中国内的概率都是一致的,每一个神经元都会随机参与。在全连接层一般会使用暂退法则。

  1. 框架

嵌入式Tensorflow稍多,但是方向为Pytorch

tensorflow2.0 版本以上和Pytorch类似。同一个网络同一组参数最后的结果是不一样的。

pytorch 张量 一切都是 tensor 张量。神经网络就是图,图可以获得偏导。图神经网络 GNN

相关推荐
学电子她就能回来吗28 分钟前
深度学习速成:损失函数与反向传播
人工智能·深度学习·学习·计算机视觉·github
爱吃泡芙的小白白29 分钟前
突破传统:CNN卷积层(普通/空洞)核心技术演进与实战指南
人工智能·神经网络·cnn·卷积层·空洞卷积·普通卷积
Coder_Boy_1 小时前
TensorFlow小白科普
人工智能·深度学习·tensorflow·neo4j
大模型玩家七七1 小时前
梯度累积真的省显存吗?它换走的是什么成本
java·javascript·数据库·人工智能·深度学习
kkzhang2 小时前
Concept Bottleneck Models-概念瓶颈模型用于可解释决策:进展、分类体系 与未来方向综述
深度学习
程序员打怪兽3 小时前
详解YOLOv8网络结构
人工智能·深度学习
饭饭大王6665 小时前
CANN 生态中的轻量化部署利器:`lite-inference` 项目实战解析
深度学习
MSTcheng.5 小时前
CANN ops-math:AI 硬件端高效数学运算的算子设计与工程化落地方法
人工智能·深度学习·cann
Dev7z5 小时前
基于深度学习的肺部听诊音疾病智能诊断方法研究
人工智能·深度学习
像风一样的男人@6 小时前
python --读取psd文件
开发语言·python·深度学习