【学习笔记】机器学习(Machine Learning) | 第六章(2)| 过拟合问题

机器学习(Machine Learning)

简要声明

基于吴恩达教授(Andrew Ng)课程视频
BiliBili课程资源


文章目录


过拟合与欠拟合问题

解决过拟合问题

一、收集更多训练数据

增加训练数据量是解决过拟合的一种有效方法。更多的数据可以帮助模型学习到更通用的模式,减少过拟合的风险。

  • 原理:更多的训练样本可以提供更全面的信息,使模型更好地泛化。
  • 示例:如果模型在有限的房屋价格数据上过拟合,增加更多不同大小、价格的房屋数据可以使模型更准确地预测新数据。

二、选择特征

选择合适的特征可以减少模型的复杂度,从而降低过拟合的可能性。

  • 特征选择:从众多特征中选择最相关的特征,去除无关或冗余的特征。
  • 优点:减少模型复杂度,提高训练速度。
  • 缺点:可能丢失一些有用的信息。
特征选择方法 说明
Filter Methods 通过相关性分析等方法预选特征
Wrapper Methods 通过模型性能评估选择特征组合
Embedded Methods 在模型训练过程中自动选择特征

三、正则化

正则化是一种通过在损失函数中添加惩罚项来限制模型复杂度的方法。

  • L1正则化 :添加参数的绝对值之和。公式为: λ ∑ j = 1 n ∣ w j ∣ \lambda \sum_{j=1}^{n} |w_j| λj=1∑n∣wj∣
  • L2正则化 :添加参数的平方和。公式为: λ ∑ j = 1 n w j 2 \lambda \sum_{j=1}^{n} w_j^2 λj=1∑nwj2
  • 作用:使参数值更小,减少模型对单个特征的依赖。
正则化方法 优点 缺点
L1正则化 可进行特征选择,稀疏性好 收敛速度较慢
L2正则化 收敛速度快,稳定性好 无法进行特征选择

四、过拟合解决方法总结

方法 适用场景 优点 缺点
收集更多数据 训练数据量不足时 提高模型泛化能力 数据收集成本高
特征选择 特征数量多且存在冗余特征时 减少模型复杂度,提高训练速度 可能丢失有用信息
正则化 模型参数量大,容易过拟合时 有效控制模型复杂度,提高泛化能力 需要调整正则化参数
交叉验证 数据集有限,需要充分利用数据进行模型评估时 减少数据浪费,提高模型评估准确性 计算成本高
早停 模型训练时间长,容易过拟合时 防止模型在训练集上过优化,保存较好的泛化能力 需要确定合适的停止点

continue...

相关推荐
罗西的思考6 分钟前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
HXhlx3 小时前
CART决策树基本原理
算法·机器学习
OpenBayes贝式计算3 天前
解决视频模型痛点,TurboDiffusion 高效视频扩散生成系统;Google Streetview 涵盖多个国家的街景图像数据集
人工智能·深度学习·机器学习
OpenBayes贝式计算3 天前
OCR教程汇总丨DeepSeek/百度飞桨/华中科大等开源创新技术,实现OCR高精度、本地化部署
人工智能·深度学习·机器学习
够快云库4 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
西岸行者4 天前
学习笔记:SKILLS 能帮助更好的vibe coding
笔记·学习
starlaky4 天前
Django入门笔记
笔记·django
勇气要爆发4 天前
吴恩达《LangChain LLM 应用开发精读笔记》1-Introduction_介绍
笔记·langchain·吴恩达
B站_计算机毕业设计之家4 天前
电影知识图谱推荐问答系统 | Python Django系统 Neo4j MySQL Echarts 协同过滤 大数据 人工智能 毕业设计源码(建议收藏)✅
人工智能·python·机器学习·django·毕业设计·echarts·知识图谱