一、前言
学习视频:第一章:线性回归原理推导 1-回归问题概述_哔哩哔哩_bilibili
相关资料
该内容仅作为个人笔记使用,希望看到的各位能有所获,博主有误的地方,各位可以在评论区有所指正
二、正文
1、线性回归
什么是线性回归?
线性回归是一种用于建立变量之间关系的统计方法。具体来说,它通过拟合一条直线(在多变量情况下则是超平面)来预测因变量(响应变量)与一个或多个自变量(预测变量)之间的关系。线性回归的主要目标是找到最适合数据的直线,使得预测值与实际值之间的误差最小化。
线性回归的主要组成部分包括:
-
回归方程: 线性回归模型通常可以表示为:
y=β0+β1x1+β2x2+⋯+βnxn+ϵy=β0+β1x1+β2x2+⋯+βnxn+ϵ
其中,yy 是因变量,x1,x2,...,xnx1,x2,...,xn 是自变量,β0β0 是截距,β1,β2,...,βnβ1,β2,...,βn 是回归系数,ϵϵ 是误差项。
-
最小二乘法: 线性回归通常通过最小二乘法来估计回归系数。最小二乘法的目标是最小化预测值和实际值之间的平方差之和。
-
拟合优度: 线性回归模型的拟合优度可以通过 R2R2(决定系数)来衡量,它表示模型解释了因变量总变异的百分比。
-
假设检验: 回归系数的显著性通常通过t检验来检验,以确定每个自变量是否对因变量有显著影响。
-
模型假设: 线性回归模型通常有一些假设,包括线性关系、误差项的正态分布、同方差性(即误差项的方差恒定)以及自变量之间没有多重共线性等。
1
2
3
2、误差项定义
什么是误差项定义?
在回归分析中,误差项 (Error Term),也称为残差(Residual),是指实际观测值与模型预测值之间的差异。具体来说,误差项可以定义为:
ϵi=yi−y^iϵi=yi−y^i
其中:
- \epsilon_i \) 是第 \( i \) 个观测值的误差项。
- \hat{y}_i \) 是模型对第 \( i \) 个观测值的预测值。
-
随机性: 误差项是由随机因素影响的,它反映了模型无法解释的部分。
-
期望值为零: 在理想情况下,误差项的期望值为零,即 E(ϵi)=0E(ϵi)=0。这表示模型的预测值在长期平均上是准确的。
-
同方差性: 误差项的方差在所有观测值中应保持恒定。这一假设称为同方差性。如果误差项的方差随自变量的变化而变化,则称为异方差性。
-
独立性: 误差项通常假设是相互独立的。这意味着一个观测值的误差不应该与另一个观测值的误差相关。
-
正态分布: 在线性回归中,通常假设误差项服从正态分布。这有助于进行假设检验和置信区间估计。
误差项的这些特性对回归模型的有效性和可靠性有重要影响。违反这些假设可能会导致模型的预测不准确或统计推断失效。
1、上下平移
2
3
4、设x0只是为了我做一个转换,转换成矩阵的一种形式
5、计算做补位
6
7、真实值和值是存在误差的
8、
三、总结
个人学习笔记,定然还是存在许多问题的,各位博友,可以在文末评论处,留下你的宝贵意见。