Heteroskedasticity

Heteroskedasticity come from

The passage is describing heteroskedasticity , a situation where the variance of the error term ( ϵ\epsilonϵ ) is not constant but depends on the explanatory variable (x).

In ordinary regression we usually assume homoskedasticity: (Var(ϵ)=σ2\text{Var}(\epsilon) = \sigma^2Var(ϵ)=σ2), the same for all values of (x)(x)(x). But here, the idea is that when (x) is large in magnitude, the spread (variance) of the errors is also larger. In probabilistic terms, if (Var(ϵ)\text{Var}(\epsilon)Var(ϵ)) grows with (x), then the probability that (ϵ\epsilonϵ) takes on large positive or negative values increases as (x) increases.


Consequences of heteroskedasticity

the equation (221) is ∑i=1n(xi−xˉ)2\sum_{i=1}^n(x_{i}-\bar{x})^2∑i=1n(xi−xˉ)2 in the denominator

the equation (222) is [∑i=1n(xi−xˉ)2]2[\sum_{i=1}^n(x_{i}-\bar{x})^2]^2[∑i=1n(xi−xˉ)2]2 in the denominator

Detecting heteroskedasticity

Formal statistical tests

注意这里是对yiy_iyi的方差,也是error平方的期望.

下面这里是真实的error平方.

The White Test


1. White 检验的特点

  • 不需要假设异方差的具体形式

    和 Breusch--Pagan 不同,BP 假设方差和解释变量的线性关系;White 则允许更一般的关系(比如平方项、交互项),所以更灵活。

  • 不要求误差服从正态分布

    White 检验基于大样本渐近理论,不依赖于正态性假设。

2. 局限性

  • 拒绝零假设 ≠ 一定有异方差

    White 检验本质上是在检验"模型是否被正确设定"。所以如果模型有遗漏变量、函数形式错了,它也可能拒绝零假设。

    换句话说,它可能把"模型设定错误"当成"异方差"。

  • 过于一般

    • 优点:几乎任何形式的异方差都能检测出来。

    • 缺点:敏感度太高,有时会报"假阳性",让人以为是异方差,实际上是模型设定的问题。

相关推荐
jie*6 小时前
小杰深度学习(two)——全连接与链式求导
图像处理·人工智能·pytorch·python·深度学习·分类·回归
码银1 天前
【数据挖掘】基于随机森林回归模型的二手车价格预测分析(数据集+源码)
随机森林·数据挖掘·回归
jie*2 天前
小杰机器学习高级(five)——分类算法的评估标准
人工智能·python·深度学习·神经网络·机器学习·分类·回归
jie*3 天前
小杰机器学习(nine)——支持向量机
人工智能·python·机器学习·支持向量机·回归·聚类·sklearn
xwz小王子3 天前
OpenAI 回归机器人:想把大模型推向物理世界
数据挖掘·回归·机器人
Lululaurel4 天前
一文详解回归分析的探索、分析、检验阶段,以Stata和SPSS为例
数据挖掘·数据分析·回归·统计
悟乙己5 天前
机器学习常见的分类与回归模型目标变量系统性设计与实践(一)
机器学习·分类·回归
HenrySmale14 天前
05 回归问题和分类问题
分类·数据挖掘·回归
xchenhao14 天前
Scikit-Learn 对糖尿病数据集(回归任务)进行全面分析
python·机器学习·回归·数据集·scikit-learn·特征·svm