深度学习经验记录

1、随网络加深,特征高宽变小,使通道变多,来增加分类能力。

2、上采样扩张特征大小来对像素进行标记,上采样方法有转置卷积、双线性插值、反池化。

3、通过压缩图像来直接得到超分辨率重建样本。

4、目标检测方法,滑动窗口、区域提案、划分网格。

5、梯度消失解决方法,ReLU、BN、残差网络、预训练加微调。

6、过拟合解决方法,正则化、Dropout、提前停止、简化模型、数据增强、清洗数据、增加数据。

7、小数集训练,迁移学习,数据增强,更深网络,加多数据,余弦损失,先验知识。

8、模型压缩,剪枝、量化、蒸馏、哈夫曼编码、深度可分离卷积、轻量化结构。

9、通过对句子随机缺失然后补全来得到自然语言处理样本。

10、下采样在前几层密度更大,以换取速度提升,越往后下采样的密度应该更小。

11、深度决定了网络的表达能力,宽度决定了网络在某一层学到的信息量。

12、图像亮度变换增强鲁棒性会更好。

13、小卷积3x3堆叠代替大卷积核,3x3卷积+1x3卷积+3x1卷积增加旁路可以提升精度。

14、参数初始化可能会收到意想不到的好结果,xavier、He等。

15、模型理论容量是由卷积核数量,模型深度等决定的。但是有效容量会受学习速率影响。

16、训练loss小于0.01结束训练,验证loss大于0.3过拟合,训练loss与验证loss都大于0.3欠拟合。

17、加深可以增加模型容量,但更难训练与容易梯度消失,加宽可以更好的拟合训练集,但容易过拟合 。

18、模型可以看做是一个函数,训练是拟合数据得到函数的参数值。

19、模型的训练是在拟合训练集的规律,模型的使用却是将规律作用于测试集。过拟合是拟合训练集所有的大方向规律和小细节规律。

20、CNN具有平移不变性,尺度与旋转都存在变化,通过数据增强来学习尺度与旋转特性。

21、 多模态处理,分别用编码器提取特征,一种方式是通过对比损失函数,使得同一类样本特征尽量相似,另一种方式是concat后解码器处理。

22、 知识规则与神经网络融合。

23、单体智能元素组合到群体智能的调度。

24、 被低估的数据,被高估的模型。

25、 平均池化更能保留整体数据的特征,较好的突出背景信息;最大池化则能更好保留纹理特征。

26、 多任务自训练一种方法是利用多个独立的专业教师模型来训练一个多任务学生模型,使用专门教师模型来标记一个未标记的数据集,再用伪标签来训练多任务学习的学生模型。

27、 拟合度低的数据适合用来做预训练,主要用于增加泛化能力,拟合度高的数据适合用来微调模型,主要用于增加准确性。

相关推荐
RoyLin2 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn4 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航4 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪5 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo5 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_8 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit9 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮10 小时前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI11 小时前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒11 小时前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能