[回归指标]R2、PCC(Pearson’s r )

R2相关系数

R2相关系数很熟悉了,就不具体解释了。

皮尔逊相关系数(PCC)

皮尔逊相关系数是研究变量之间线性相关程度的量,R方和PCC是不同的指标。R方衡量x和y的接近程度,PCC衡量的是x和y的变化趋势是否相同。R方是不对称关系,PCC是对称关系。

皮尔逊相关系数小结

  • Pearson's r 只适用于线性数据。

  • 看下面的图。它们清楚地展示了一种看似非随机的关系,但是 Pearson's r 非常接近于零。

  • 原因是因为这些图中的变量具有非线性关系。

  • 我们通常可以将两个变量之间的关系描绘成一个点云,分散在一条线的两侧。点云的分散度越大,数据越「嘈杂」,关系越弱。

  • 然而,由于它将每个单独的数据点与整体平均值进行比较,所以 Pearson's r 只考虑直线。这意味着检测非线性关系并不是很好。

  • 在上面的图中,Pearson's r 并没有显示研究对象的相关性。

  • 然而,这些变量之间的关系很显然是非随机的。幸运的是,我们有不同的相关性方法。

相关推荐
人工智能训练6 小时前
【极速部署】Ubuntu24.04+CUDA13.0 玩转 VLLM 0.15.0:预编译 Wheel 包 GPU 版安装全攻略
运维·前端·人工智能·python·ai编程·cuda·vllm
源于花海7 小时前
迁移学习相关的期刊和会议
人工智能·机器学习·迁移学习·期刊会议
DisonTangor8 小时前
DeepSeek-OCR 2: 视觉因果流
人工智能·开源·aigc·ocr·deepseek
薛定谔的猫19828 小时前
二十一、基于 Hugging Face Transformers 实现中文情感分析情感分析
人工智能·自然语言处理·大模型 训练 调优
发哥来了9 小时前
《AI视频生成技术原理剖析及金管道·图生视频的应用实践》
人工智能
数智联AI团队9 小时前
AI搜索引领开源大模型新浪潮,技术创新重塑信息检索未来格局
人工智能·开源
不懒不懒9 小时前
【线性 VS 逻辑回归:一篇讲透两种核心回归模型】
人工智能·机器学习
冰西瓜6009 小时前
从项目入手机器学习——(四)特征工程(简单特征探索)
人工智能·机器学习
Ryan老房9 小时前
未来已来-AI标注工具的下一个10年
人工智能·yolo·目标检测·ai
丝斯201110 小时前
AI学习笔记整理(66)——多模态大模型MOE-LLAVA
人工智能·笔记·学习