机器学习任务功略

loss如果大,训练资料没有学好,此时有两个可能:

1.model bias太过简单(找不到loss低的function)。

**解决办法:**增加输入的feacture,设一个更大的model,也可以用deep learning增加弹性。

2.optimization做得不好(合适的function确实存在但是无法正确选择出来)。
如何判断是上面的哪种情况?
  • 比较图像信息。(例如如果20层的network已经可以做得很好有很低的loss了,56层的明显错误便并不是model bias弹性不够导致的,是optimization做得不好)
  • 可以先看比较浅的network(model),因为它们不太会有optimization的问题。
  • 如果深层的model并没有包含更小的数据差,那就是optimization的问题。(例如↓)

看testing data

1.依旧很小,那很完美。
2.如果training data的loss小(并且确定model bias没有问题,optimization够大了)但是testing data的loss大有可能是overfitting。
  • 上面是个特例极端情况。
  • 正常来说:没有给足够的资料做为训练,因为model自由度很大就会导致overfitting。
解决方法:

1.增加训练资料。

2.data augmentation(用自己对问题的理解自己创造一些资料)。

注意:不能随便做,要是有道理的数据。根据对资料的特性,基于自己的理解,增加 data augmentation。

3.缩减弹性,写极限。

比如:减少神经元数目 或者 让model公用参数 或者 用比较少的features 或者 early stopping 或者 regularization 或者 drop out。

但是注意不要给模型太多的限制。限制太大了在测试上就没有好结果,也就导致了model bias。

相关推荐
九章云极AladdinEdu5 分钟前
存算一体架构下的新型AI加速范式:从Samsung HBM-PIM看近内存计算趋势
人工智能·pytorch·算法·架构·gpu算力·智能电视
搏博35 分钟前
结构模式识别理论与方法
人工智能·深度学习·学习·算法·机器学习
没有梦想的咸鱼185-1037-16631 小时前
【大模型ChatGPT+R-Meta】AI赋能R-Meta分析核心技术:从热点挖掘到高级模型、助力高效科研与论文发表“
人工智能·随机森林·机器学习·chatgpt·数据分析·r语言
聚客AI1 小时前
向量数据库+KNN算法实战:HNSW算法核心原理与Faiss性能调优终极指南
人工智能·机器学习·语言模型·自然语言处理·transformer·agent·向量数据库
意.远1 小时前
PyTorch线性代数操作详解:点积、矩阵乘法、范数与轴求和
人工智能·pytorch·python·深度学习·线性代数·矩阵
AIGC_ZY2 小时前
使用 MediaPipe 和 OpenCV 快速生成人脸掩膜(Face Mask)
人工智能·opencv·计算机视觉
江安的猪猪2 小时前
大连理工大学选修课——机器学习笔记(9):线性判别式与逻辑回归
笔记·机器学习·逻辑回归
说私域2 小时前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的IP开发泡沫破局与价值重构研究
人工智能·小程序·开源·零售
JOYCE_Leo162 小时前
深度学习框架:PyTorch使用教程 !!
图像处理·人工智能·pytorch·深度学习·计算机视觉
嘉图明2 小时前
《技术驯化情感:AI伴侣、监控与伦理框架的重构挑战》
人工智能·重构