深度学习经验记录

1、随网络加深,特征高宽变小,使通道变多,来增加分类能力。

2、上采样扩张特征大小来对像素进行标记,上采样方法有转置卷积、双线性插值、反池化。

3、通过压缩图像来直接得到超分辨率重建样本。

4、目标检测方法,滑动窗口、区域提案、划分网格。

5、梯度消失解决方法,ReLU、BN、残差网络、预训练加微调。

6、过拟合解决方法,正则化、Dropout、提前停止、简化模型、数据增强、清洗数据、增加数据。

7、小数集训练,迁移学习,数据增强,更深网络,加多数据,余弦损失,先验知识。

8、模型压缩,剪枝、量化、蒸馏、哈夫曼编码、深度可分离卷积、轻量化结构。

9、通过对句子随机缺失然后补全来得到自然语言处理样本。

10、下采样在前几层密度更大,以换取速度提升,越往后下采样的密度应该更小。

11、深度决定了网络的表达能力,宽度决定了网络在某一层学到的信息量。

12、图像亮度变换增强鲁棒性会更好。

13、小卷积3x3堆叠代替大卷积核,3x3卷积+1x3卷积+3x1卷积增加旁路可以提升精度。

14、参数初始化可能会收到意想不到的好结果,xavier、He等。

15、模型理论容量是由卷积核数量,模型深度等决定的。但是有效容量会受学习速率影响。

16、训练loss小于0.01结束训练,验证loss大于0.3过拟合,训练loss与验证loss都大于0.3欠拟合。

17、加深可以增加模型容量,但更难训练与容易梯度消失,加宽可以更好的拟合训练集,但容易过拟合 。

18、模型可以看做是一个函数,训练是拟合数据得到函数的参数值。

19、模型的训练是在拟合训练集的规律,模型的使用却是将规律作用于测试集。过拟合是拟合训练集所有的大方向规律和小细节规律。

20、CNN具有平移不变性,尺度与旋转都存在变化,通过数据增强来学习尺度与旋转特性。

21、 多模态处理,分别用编码器提取特征,一种方式是通过对比损失函数,使得同一类样本特征尽量相似,另一种方式是concat后解码器处理。

22、 知识规则与神经网络融合。

23、单体智能元素组合到群体智能的调度。

24、 被低估的数据,被高估的模型。

25、 平均池化更能保留整体数据的特征,较好的突出背景信息;最大池化则能更好保留纹理特征。

26、 多任务自训练一种方法是利用多个独立的专业教师模型来训练一个多任务学生模型,使用专门教师模型来标记一个未标记的数据集,再用伪标签来训练多任务学习的学生模型。

27、 拟合度低的数据适合用来做预训练,主要用于增加泛化能力,拟合度高的数据适合用来微调模型,主要用于增加准确性。

相关推荐
2401_8414956422 分钟前
【自然语言处理】轻量版生成式语言模型GPT
人工智能·python·gpt·深度学习·语言模型·自然语言处理·transformer
梵得儿SHI27 分钟前
(第三篇)Spring AI 基础入门:PromptTemplate 与对话工程实战(从字符串拼接到底层模板引擎的进阶之路)
人工智能·prompt·大模型应用·spring ai·prompttemplate·ai 响应的质量与准确性·上下文管理策略
Yolo566Q36 分钟前
OpenLCA生命周期评估模型构建与分析
java·开发语言·人工智能
是Yu欸1 小时前
【博资考5】网安2025
网络·人工智能·经验分享·笔记·网络安全·ai·博资考
云和数据.ChenGuang1 小时前
tensorflow生成随机数和张量
人工智能·python·tensorflow
Bony-1 小时前
糖尿病预测多个机器学习维度预测
人工智能·机器学习
EVERSPIN1 小时前
什么是离线语音识别芯片(离线语音识别芯片有哪些优点)
人工智能·语音识别·语音识别芯片·离线语音识别芯片
倦王1 小时前
Pytorch 预训练网络加载与迁移学习基本介绍
人工智能·pytorch·迁移学习
科技峰行者1 小时前
微软与OpenAI联合研发“Orion“超大规模AI模型:100万亿参数开启“科学家AI“新纪元
大数据·人工智能·microsoft
拓端研究室1 小时前
2025母婴用品双11营销解码与AI应用洞察报告|附40+份报告PDF、数据、绘图模板汇总下载
大数据·人工智能