Heteroskedasticity

Heteroskedasticity come from

The passage is describing heteroskedasticity , a situation where the variance of the error term ( ϵ\epsilonϵ ) is not constant but depends on the explanatory variable (x).

In ordinary regression we usually assume homoskedasticity: (Var(ϵ)=σ2\text{Var}(\epsilon) = \sigma^2Var(ϵ)=σ2), the same for all values of (x)(x)(x). But here, the idea is that when (x) is large in magnitude, the spread (variance) of the errors is also larger. In probabilistic terms, if (Var(ϵ)\text{Var}(\epsilon)Var(ϵ)) grows with (x), then the probability that (ϵ\epsilonϵ) takes on large positive or negative values increases as (x) increases.


Consequences of heteroskedasticity

the equation (221) is ∑i=1n(xi−xˉ)2\sum_{i=1}^n(x_{i}-\bar{x})^2∑i=1n(xi−xˉ)2 in the denominator

the equation (222) is [∑i=1n(xi−xˉ)2]2[\sum_{i=1}^n(x_{i}-\bar{x})^2]^2[∑i=1n(xi−xˉ)2]2 in the denominator

Detecting heteroskedasticity

Formal statistical tests

注意这里是对yiy_iyi的方差,也是error平方的期望.

下面这里是真实的error平方.

The White Test


1. White 检验的特点

  • 不需要假设异方差的具体形式

    和 Breusch--Pagan 不同,BP 假设方差和解释变量的线性关系;White 则允许更一般的关系(比如平方项、交互项),所以更灵活。

  • 不要求误差服从正态分布

    White 检验基于大样本渐近理论,不依赖于正态性假设。

2. 局限性

  • 拒绝零假设 ≠ 一定有异方差

    White 检验本质上是在检验"模型是否被正确设定"。所以如果模型有遗漏变量、函数形式错了,它也可能拒绝零假设。

    换句话说,它可能把"模型设定错误"当成"异方差"。

  • 过于一般

    • 优点:几乎任何形式的异方差都能检测出来。

    • 缺点:敏感度太高,有时会报"假阳性",让人以为是异方差,实际上是模型设定的问题。

相关推荐
小徐xxx1 天前
Softmax回归(分类问题)学习记录
深度学习·分类·回归·softmax·学习记录
我材不敲代码1 天前
机器学习入门 03逻辑回归part1—— 名字是回归但是却是分类算法的逻辑回归
机器学习·分类·回归
薛不痒3 天前
深度学习的补充:神经网络处理回归问题(人脸关键点识别)&自然语言处理的介绍
深度学习·神经网络·回归
木非哲3 天前
AB实验高级必修课(二):从宏观叙事到微观侦查,透视方差分析与回归的本质
人工智能·数据挖掘·回归·abtest
lrh1228003 天前
详解线性回归算法:原理、实现与优化(附损失函数与正则化)
人工智能·机器学习·回归
机器学习之心3 天前
BiLSTM-BP-SVR加权组合模型回归预测四模型对比,对比BiLSTM、BP神经网络、SVR支持向量机回归,MATLAB代码
神经网络·支持向量机·回归·bilstm-bp-svr
我材不敲代码4 天前
机器学习入门02——新手学习的第一个回归算法:线性回归
学习·机器学习·回归
机器学习之心HML4 天前
GCN-TCN-Transformer回归模型 + SHAP 可解释性分析 Pytorch实现
pytorch·回归·transformer
山楂树の7 天前
计算机图形学 模型矩阵的逆矩阵:如何从“世界”回归“局部”?
线性代数·矩阵·回归
赤狐先生7 天前
NO.1一个线性回归模型 - 用colab的第一步
算法·回归·线性回归