【机器学习300问】109、什么是岭回归模型?

在进行回归任务时间,可以能会遇到**特征数量多于观测数量或某些特征变量之间相关性较高(几乎线性相关)**时,标准的线性回归模型的系数估计可能非常不精确,可以理解成方程个数小于未知数个数此时方程无解。

一、岭回归产生的背景

岭回归模型的提出为了解决什么问题呢?我们用一个比喻加一个例子来说明:

想象一下,你在一家咖啡馆里试图通过窗户观察外面行人手中的饮料类型来进行统计。但是,由于窗户上贴满了复杂的花纹,这些花纹就像是数据中的噪音和复杂关系,让你很难清晰地分辨每种饮料。这时候,如果你戴上一副特制的眼镜------这副眼镜能减弱花纹干扰,让你更专注于主要的区别特征,比如饮料的颜色或形状,这样就能更准确地统计了。

在机器学习中,岭回归就是这样一副"眼镜"。它是一种改进的线性回归方法,专门用来处理那些因为特征之间存在很强的相关性(我们称之为多重共线性)而变得棘手的问题。没有这副"眼镜",普通的线性回归(就像直接用眼观察)可能会被数据中的复杂关系迷惑,导致预测效果很差,甚至系数估计出错。

二、岭回归的思想和公式

岭回归是如何工作的呢?它通过在原有的误差最小化目标基础上,加入了一个额外的惩罚项。这个惩罚项是各个特征权重(也就是回归系数)的平方和乘以一个正的常数(我们称之为正则化参数λ)。

在标准的多元线性回归中,模型参数通过最小化残差平方和(RSS)来估计:

其中,是样本数量,是因变量的观测值,是自变量的观测值,是回归系数。

**然而,在某些情况下,特别是当特征数量接近或超过样本数量时,线性回归可能导致过拟合和不稳定的估计值。**岭回归为了防止这些问题,将一个额外的正则项(也称为惩罚项)加到RSS上:

其中,是一个正的调节参数(岭参数),起到调节系数向0收缩的力度。由于正则项的存在,岭回归倾向于将系数估计值向0压缩,这意味着尽管它们可能永远不会等于0,但可以控制过拟合现象,提高模型的泛化能力。

【注】选择一个合适的值,因为它决定了系数压缩的程度。的值越大,约束越强,回归系数会越小。通常是通过交叉验证来选择的。

三、为什么叫岭回归?

岭回归之所以被称为"岭回归"(Ridge Regression),源自它在问题求解中的几何性质。这个名字可以归因于它在求解参数时,通过正则化项引入的约束导致解集呈现出"岭"的形状。

在标准线性回归中,模型的目标是最小化误差平方和,这在参数空间中可以视为寻找一个能使误差平方和函数最低的参数点。如果存在共线性,这个误差平方和的底部(代表最佳解的区域)会变得非常扁平,导致许多可能的解。

当引入岭回归的L2正则化时,即在目标函数中增加所有系数的平方和乘以岭参数λ,这就相当于在参数空间中增加了一个圆形的约束。这个圆形约束使得参数不再在平坦的区域自由移动,而是被限制在一个"岭"上,即限制在较小范围的圆形区域内寻找最佳解。因此,"岭"这个名称形象地描述了正则化项如何影响系数的求解过程,强制系数向零收缩,同时保护模型免于过拟合。

相关推荐
搬砖者(视觉算法工程师)几秒前
【无标题】
人工智能·计算机视觉·机器人
RFID舜识物联网几秒前
高校实验室智能化升级:RFID技术革新化学试剂管理
大数据·人工智能·科技·物联网·安全
深蓝学院2 分钟前
为何机器学习常提反事实推断?——从起源、价值到数学建模
人工智能·机器学习
轻竹办公PPT2 分钟前
2026 年 AI PPT 工具深度复盘:工具间的效率鸿沟与职场应用场景分析
人工智能·python·powerpoint
企业老板ai培训7 分钟前
从九尾狐AI案例拆解智能矩阵架构:如何用AI获客引擎重构传统企业流量体系
人工智能·矩阵·重构
零售ERP菜鸟7 分钟前
IT年度商业计划书框架(精简版)
大数据·人工智能·职场和发展·创业创新·学习方法·业界资讯
张祥6422889047 分钟前
线性代数本质笔记十二
人工智能·算法·机器学习
乌恩大侠8 分钟前
【AI-RAN 调研】软银株式会社的 “AITRAS” 基于 Arm 架构的 NVIDIA 平台 实现 集中式与分布式 AI-RAN 架构
人工智能·分布式·fpga开发·架构·usrp·mimo
2501_9481201512 分钟前
边缘计算与云计算协同的计算卸载策略
人工智能·云计算·边缘计算
aigcapi13 分钟前
2026年跨境运营矩阵系统TOP5测评,客观展现“矩阵系统哪家好?”
大数据·人工智能·矩阵