机器学习任务功略

loss如果大,训练资料没有学好,此时有两个可能:

1.model bias太过简单(找不到loss低的function)。

**解决办法:**增加输入的feacture,设一个更大的model,也可以用deep learning增加弹性。

2.optimization做得不好(合适的function确实存在但是无法正确选择出来)。
如何判断是上面的哪种情况?
  • 比较图像信息。(例如如果20层的network已经可以做得很好有很低的loss了,56层的明显错误便并不是model bias弹性不够导致的,是optimization做得不好)
  • 可以先看比较浅的network(model),因为它们不太会有optimization的问题。
  • 如果深层的model并没有包含更小的数据差,那就是optimization的问题。(例如↓)

看testing data

1.依旧很小,那很完美。
2.如果training data的loss小(并且确定model bias没有问题,optimization够大了)但是testing data的loss大有可能是overfitting。
  • 上面是个特例极端情况。
  • 正常来说:没有给足够的资料做为训练,因为model自由度很大就会导致overfitting。
解决方法:

1.增加训练资料。

2.data augmentation(用自己对问题的理解自己创造一些资料)。

注意:不能随便做,要是有道理的数据。根据对资料的特性,基于自己的理解,增加 data augmentation。

3.缩减弹性,写极限。

比如:减少神经元数目 或者 让model公用参数 或者 用比较少的features 或者 early stopping 或者 regularization 或者 drop out。

但是注意不要给模型太多的限制。限制太大了在测试上就没有好结果,也就导致了model bias。

相关推荐
树獭非懒8 分钟前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能
阿尔的代码屋11 分钟前
[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent
人工智能·python
小小小怪兽13 分钟前
🔨聊一聊Skills
人工智能·agent
穿过生命散发芬芳16 分钟前
OpenClaw:开启OpenCloudOS 操作系统智能运维初体验
人工智能·aigc
老金带你玩AI36 分钟前
Claude Code自动记忆来了!配合老金三层记忆系统全开源!加强Plus!
人工智能
Halo咯咯39 分钟前
无限免费 OpenClaw:接入本地模型后,你的 AI Agent 就可以 24 小时自动干活(Mac Mini 可用)
人工智能
NAGNIP13 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab14 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab14 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP18 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能