【无标题】

1. 【机器学习】机器学习笔记(吴恩达)-CSDN博客

  1. 误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。

  2. 梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a。

  3. 在梯度下降算法中,如果学习率太大,loss不是来回震荡,而是爆炸。如下图:在第二种情况中,如果学习率太大,参数更新超过了最小值点,由于学习率的放大作用,loss到了更高的一点,基于这点的偏导数,乘以放大的学习率,会反向跳到更大的loss处。所以,学习率太大,最终的loss不是震荡,而是爆炸。


4. 解决过拟合问题

降低特征数量:手动选择或者模型自动选择特征

正则化:保留特征,但是降低参数的幅值。

相关推荐
aircrushin几秒前
轻量化大模型架构演进
人工智能·架构
文心快码BaiduComate1 小时前
百度云与光本位签署战略合作:用AI Agent 重构芯片研发流程
前端·人工智能·架构
风象南2 小时前
Claude Code这个隐藏技能,让我告别PPT焦虑
人工智能·后端
Mintopia2 小时前
OpenClaw 对软件行业产生的影响
人工智能
陈广亮3 小时前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬3 小时前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia3 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区4 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两6 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent