决定系数R2 浅谈三 : 决定系数R2与相关系数r的关系、决定系数R2是否等于相关系数r的平方

今天浅谈一下本人对决定系数R2相关系数r 的理解,我们在做回归分析、简单线性回归、多元线性回归、对模型进行算法训练时,常常会见到决定系数R2和相关系数r,在很多资料中对这两者的关系解释也是含糊不清,有的说决定系数R2就是等于相关系数r,有的说他两没有任何关系。那么两者到底有无关系请看我关于两者的一些讨论。

1 相关系数r(Correlation coefficient)

相关系数r的定义如下:

由以上定义式可知,相关系数r描述的时自变量 X与因变量Y之间的线性关系强度和方向

2 决定系数 R2(coefficient of determination)

决定系数R2衡量的是回归模型所能解释的变异量占总变异量 的比例,其中关于决定系数R2的定义可以参考我前面的文章,此处便不再定义,文章链接如下:决定系数R2 浅谈一 : 决定系数R2为什么计算出来小于0/为负数、大于1/远大于1、决定系数R2为什么计算出来不在0~1之间-CSDN博客

3 R2与r2的关系

两者何时才能等价呢,实际上决定系数R2和相关系数r2只有在简单线性回归 中才能是完全等价 的,此处的等价也仅限于 最后的结果相等

简单线性回归 指的就是一元线性回归,即一个自变量和一个因变量。

实际上,我们根据决定系数和相关系数的定义就可以得知,两者完全不是一个概念上的东西

1)决定系数的计算只跟预测值和观测值相关,说直白点,它最终的计算结果只与因变量Y相关。

2)相关系数的计算涉及到自变量和因变量,并未涉及到预测值。

3)相关系数r一般是在建模前对数据集中的自变量X和因变量Y进行一个相关性分析;

4)而决定系数R2是在对数据集建模后对预测值和观测值进行一个计算,来观察模型的预测效果,两者的计算目的都不相同。

4 结论

1)当模型是简单线性回归时(一元线性回归),决定系数R2的计算结果等于相关系数r的平方。

2)当模型涉及多个自变量(两个及以上)时,决定系数R2的计算结果等于相关系数r的平方两者计算结果不相等。

3)相关系数r反应的是自变量与因变量之间的线性程度;决定系数R2反应的是回归模型对数据集的拟合程度;两者并无联系。

以上也仅仅是个人总结的观点,具体证明可参考统计学的书籍和相关资料。

如有不足之处,还请各位批评指正!

记得点赞,收藏,关注一键三连,谢谢未来的各位工程师、教授、院士......!

相关推荐
敲上瘾2 分钟前
子数组问题——动态规划
java·c++·算法·动态规划
eason_fan10 分钟前
前端手撕代码(bigo)
算法·面试
SmallBambooCode13 分钟前
【人工智能】【Python】在Scikit-Learn中使用KNN(K最近邻算法)
人工智能·python·机器学习·scikit-learn·近邻算法
Root062415 分钟前
【笔记】记一次easyExcel中注解ExcelProperty映射字段赋值无效问题
java·开发语言·笔记
受之以蒙16 分钟前
Rust并发编程:解锁高效与安全的编程新姿势
笔记·rust
302wanger23 分钟前
ARTS-算法-长度最小的子数组
算法
Gene_INNOCENT33 分钟前
大型语言模型训练的三个阶段:Pre-Train、Instruction Fine-tuning、RLHF (PPO / DPO / GRPO)
人工智能·深度学习·语言模型
挣扎与觉醒中的技术人35 分钟前
如何优化FFmpeg拉流性能及避坑指南
人工智能·深度学习·性能优化·ffmpeg·aigc·ai编程
watersink38 分钟前
Dify框架下的基于RAG流程的政务检索平台
人工智能·深度学习·机器学习
lizz311 小时前
机器学习中的线性代数:奇异值分解 SVD
线性代数·算法·机器学习