【无标题】

1. 【机器学习】机器学习笔记(吴恩达)-CSDN博客

  1. 误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。

  2. 梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a。

  3. 在梯度下降算法中,如果学习率太大,loss不是来回震荡,而是爆炸。如下图:在第二种情况中,如果学习率太大,参数更新超过了最小值点,由于学习率的放大作用,loss到了更高的一点,基于这点的偏导数,乘以放大的学习率,会反向跳到更大的loss处。所以,学习率太大,最终的loss不是震荡,而是爆炸。


4. 解决过拟合问题

降低特征数量:手动选择或者模型自动选择特征

正则化:保留特征,但是降低参数的幅值。

相关推荐
极限实验室13 分钟前
Coco AI 实战(一):Coco Server Linux 平台部署
人工智能
杨过过儿24 分钟前
【学习笔记】4.1 什么是 LLM
人工智能
巴伦是只猫33 分钟前
【机器学习笔记Ⅰ】13 正则化代价函数
人工智能·笔记·机器学习
大千AI助手42 分钟前
DTW模版匹配:弹性对齐的时间序列相似度度量算法
人工智能·算法·机器学习·数据挖掘·模版匹配·dtw模版匹配
AI生存日记1 小时前
百度文心大模型 4.5 系列全面开源 英特尔同步支持端侧部署
人工智能·百度·开源·open ai大模型
LCG元1 小时前
自动驾驶感知模块的多模态数据融合:时序同步与空间对齐的框架解析
人工智能·机器学习·自动驾驶
why技术1 小时前
Stack Overflow,轰然倒下!
前端·人工智能·后端
超龄超能程序猿2 小时前
(三)PS识别:基于噪声分析PS识别的技术实现
图像处理·人工智能·计算机视觉
要努力啊啊啊2 小时前
YOLOv3-SPP Auto-Anchor 聚类调试指南!
人工智能·深度学习·yolo·目标检测·目标跟踪·数据挖掘