Heteroskedasticity

Heteroskedasticity come from

The passage is describing heteroskedasticity , a situation where the variance of the error term ( ϵ\epsilonϵ ) is not constant but depends on the explanatory variable (x).

In ordinary regression we usually assume homoskedasticity: (Var(ϵ)=σ2\text{Var}(\epsilon) = \sigma^2Var(ϵ)=σ2), the same for all values of (x)(x)(x). But here, the idea is that when (x) is large in magnitude, the spread (variance) of the errors is also larger. In probabilistic terms, if (Var(ϵ)\text{Var}(\epsilon)Var(ϵ)) grows with (x), then the probability that (ϵ\epsilonϵ) takes on large positive or negative values increases as (x) increases.


Consequences of heteroskedasticity

the equation (221) is ∑i=1n(xi−xˉ)2\sum_{i=1}^n(x_{i}-\bar{x})^2∑i=1n(xi−xˉ)2 in the denominator

the equation (222) is [∑i=1n(xi−xˉ)2]2[\sum_{i=1}^n(x_{i}-\bar{x})^2]^2[∑i=1n(xi−xˉ)2]2 in the denominator

Detecting heteroskedasticity

Formal statistical tests

注意这里是对yiy_iyi的方差,也是error平方的期望.

下面这里是真实的error平方.

The White Test


1. White 检验的特点

  • 不需要假设异方差的具体形式

    和 Breusch--Pagan 不同,BP 假设方差和解释变量的线性关系;White 则允许更一般的关系(比如平方项、交互项),所以更灵活。

  • 不要求误差服从正态分布

    White 检验基于大样本渐近理论,不依赖于正态性假设。

2. 局限性

  • 拒绝零假设 ≠ 一定有异方差

    White 检验本质上是在检验"模型是否被正确设定"。所以如果模型有遗漏变量、函数形式错了,它也可能拒绝零假设。

    换句话说,它可能把"模型设定错误"当成"异方差"。

  • 过于一般

    • 优点:几乎任何形式的异方差都能检测出来。

    • 缺点:敏感度太高,有时会报"假阳性",让人以为是异方差,实际上是模型设定的问题。

相关推荐
yj_sharing1 天前
动手学深度学习softmax回归的笔记
笔记·深度学习·回归
周周爱喝粥呀1 天前
LLM 中的自回归模型与非自回归模型:GPT 和 BERT 的区别
人工智能·gpt·ai·回归
zhangfeng11332 天前
数据分析 医学分析中线性回归、Cox回归、Logistic回归的定义和区别,原理和公式,适用场景
数据分析·回归·线性回归
简简单单做算法2 天前
基于GA遗传优化的分位数回归QRBILSTM网络模型的多输入单输出预测算法matlab仿真
算法·matlab·回归·分位数回归·qrbilstm·ga-qrbilstm·多输入单输出预测
sonadorje3 天前
谈谈贝叶斯回归
人工智能·数据挖掘·回归
木头程序员3 天前
机器学习概述:核心范式、关键技术与应用展望
大数据·人工智能·机器学习·回归·聚类
小鸡吃米…3 天前
机器学习中的回归分析
人工智能·python·机器学习·回归
chao1898444 天前
基于MATLAB实现多变量高斯过程回归(GPR)
开发语言·matlab·回归
Quintus五等升4 天前
深度学习①|线性回归的实现
人工智能·python·深度学习·学习·机器学习·回归·线性回归
yongui478344 天前
MATLAB中回归模型常用误差指标(MSE、RMSE、MAPE等)的实现方法
android·matlab·回归