【线性相关 vs 双变量回归】数据点在斜率周围的聚集程度与斜率本身并不是一回事。

相关性分析(具体来说,皮尔逊成对相关性)和回归分析(具体来说,双变量最小二乘 (OLS) 回归)具有许多共同的特征:

  • 两者都定期应用于两个连续变量(我们称之为 X 和 Y)。
  • 通常向学生介绍这两种图表时使用的是同一类型的图表:散点图。
  • 二者从根本上讲都是关于 X 中的偏差(即相对于平均值的单个值)与 Y 中的偏差之间的关系。
  • 两者都假设 X 和 Y 之间存在线性关系。
  • 两者都可以用于经典的假设检验,每个都依赖于相同的基础分布(t )并产生相同的p值。

事实上,双变量 OLS 回归中获得的流行 R 平方实际上就是皮尔逊相关系数 ( r ) 的平方。

那么相关性和双变量回归,有什么区别呢?

最大的区别在于我们如何解释每次分析产生的关键数量。我们从相关性分析中获得的相关系数 ( r ) 是一个标准化数字,介于 -1 到 +1 之间(其中 -1 表示完全负线性相关,而 +1 表示完全正线性相关),无论我们分析的变量是什么

另一方面,回归会产生一个 beta 系数 ( b ),它可以是任意 数字,告诉我们当 X 增加一个单位时 Y 的平均变化。换句话说,b 是以我们正在研究的特定 Y 变量为单位的。因此,要真正理解b,我们确实需要知道 X 和 Y 是什么以及如何测量它们的细节

两者之间存在着更重要的概念差异

  • ***r***是关于观测值围绕拟合线的聚集紧密程度,无论该线有多陡峭。
  • *b*表示拟合线的陡峭程度,无论观测值围绕该线的聚集程度如何。

r 实际上关心的是 X 的较高值往往(线性)与 Y 的较高值(或较低值)对应的一致性。而b实际上关心的是,在 X 增加的情况下,Y 预计平均会发生多大变化。

围绕斜线的观测值的聚集与斜线本身并不相同

图表顶部的(绿色)点表示 X 和 Y 之间的关系。r值为 0.70。此关系的 b 值也为 0.70。因此,存在相当强的正相关性,且"效应"为 0.70,这意味着当 X 增加 1 时,我们预计 Y(平均)将增加 0.70。此效应由穿过数据点的(红色)拟合线表示。

但现在看看下半部分的(蓝色)点。它们看起来相当混乱------它们看起来不像图表上半部分那样整齐地聚集在(橙色)拟合线周围。相对于上图,它们在拟合线周围分散得很开,这表明从 X 的一个值到 X 的较高值对应 Y 的较低值的情况相对较多*,*反之亦然。因此,我们的相关性(r)较低,现在只有 0.61,而上图为 0.70。

但现在请注意底部斜率的相对陡峭程度。平均而言,增加 X 的值会导致 Y 的预期值发生相当大的变化。因此,我们看到一个非常大的斜率: b =4.03。这意味着,X 每增加一个单位,我们平均会看到 Y 增加 4.03。这比我们在顶部看到的**b =.70 效应要陡峭得多,但底部的相关性 ( r ) 较弱。

再次强调,数据点在斜率周围的聚集程度与斜率本身并不是一回事。

举例: 现在是夏天,天气很热;你不喜欢你所在城市的高温,所以你决定去山上。幸运的是,你到达山顶,测量温度,你发现它比你所在城市的温度低。你会有点疑惑*(因为你对气温的下降不理解)*,于是决定去一座更高的山,发现那里的气温甚至比前一座山上的还要低。

你尝试不同高度的山脉,测量温度并绘制图表;你会发现,随着山的高度增加,温度降低,你可以看到一个线性趋势。这是什么意思?这意味着温度与高度有关;这并不意味着山的高度导致了温度的下降*(如果你用热气球到达同一高度、同一纬度,你会测量出什么温度?)*

相关性和回归分析不仅仅是对同一事物的不同表述方式。

补充

1.深入相关性这个概念,我们可以说,如果第一个变量的每一个值,都遵循一定的规律性对应于第二个变量的一个值,那么两个变量是相关的;因此,如果两个变量高度相关,路径将是线性的*(一条线)*,因为相关性描述了变量之间的线性关系。

也就是说,相关性表示的是变量之间的关系,而不是因果关系!如果自变量的值增加,而因变量的值也增加,但这并不意味着第一个变量导致了第二个变量值的增加!

2.回归分析是一种数学技术,用于分析一些数据,包括一个因变量和一个*(或多个)*自变量,目的是找到因变量和自变量之间的最终函数关系。

回归分析的目的是找到在因变量和自变量之间的一个估计值*(一个好的估计值!)*。从数学上讲,回归的目的是找到最适合数据的曲线。

当然,最适合数据的曲线可以是直线;但它也可以是任何曲线,这取决于它们之间是何种关系!

所以,我们要做的是计算相关系数,如果它的值接近1,我们可以在研究回归时得到一条直线;否则,我们必须尝试多项式回归*(或其他方法,比如指数回归或其他任何方法)*!

相关推荐
martian66530 分钟前
【人工智能数学基础篇】——深入详解多变量微积分:在机器学习模型中优化损失函数时应用
人工智能·机器学习·微积分·数学基础
人机与认知实验室1 小时前
人、机、环境中各有其神经网络系统
人工智能·深度学习·神经网络·机器学习
黑色叉腰丶大魔王2 小时前
基于 MATLAB 的图像增强技术分享
图像处理·人工智能·计算机视觉
迅易科技4 小时前
借助腾讯云质检平台的新范式,做工业制造企业质检的“AI慧眼”
人工智能·视觉检测·制造
古希腊掌管学习的神5 小时前
[机器学习]XGBoost(3)——确定树的结构
人工智能·机器学习
ZHOU_WUYI6 小时前
4.metagpt中的软件公司智能体 (ProjectManager 角色)
人工智能·metagpt
靴子学长6 小时前
基于字节大模型的论文翻译(含免费源码)
人工智能·深度学习·nlp
AI_NEW_COME7 小时前
知识库管理系统可扩展性深度测评
人工智能
海棠AI实验室8 小时前
AI的进阶之路:从机器学习到深度学习的演变(一)
人工智能·深度学习·机器学习
hunteritself8 小时前
AI Weekly『12月16-22日』:OpenAI公布o3,谷歌发布首个推理模型,GitHub Copilot免费版上线!
人工智能·gpt·chatgpt·github·openai·copilot