十大机器学习算法-学习笔记-章节1-线性回归—

一、前言

学习视频:第一章:线性回归原理推导 1-回归问题概述_哔哩哔哩_bilibili

相关资料

该内容仅作为个人笔记使用,希望看到的各位能有所获,博主有误的地方,各位可以在评论区有所指正

二、正文

1、线性回归

什么是线性回归?

线性回归是一种用于建立变量之间关系的统计方法。具体来说,它通过拟合一条直线(在多变量情况下则是超平面)来预测因变量(响应变量)与一个或多个自变量(预测变量)之间的关系。线性回归的主要目标是找到最适合数据的直线,使得预测值与实际值之间的误差最小化。

线性回归的主要组成部分包括:

  1. 回归方程: 线性回归模型通常可以表示为:

    y=β0+β1x1+β2x2+⋯+βnxn+ϵy=β0​+β1​x1​+β2​x2​+⋯+βn​xn​+ϵ

    其中,yy 是因变量,x1,x2,...,xnx1​,x2​,...,xn​ 是自变量,β0β0​ 是截距,β1,β2,...,βnβ1​,β2​,...,βn​ 是回归系数,ϵϵ 是误差项。

  2. 最小二乘法: 线性回归通常通过最小二乘法来估计回归系数。最小二乘法的目标是最小化预测值和实际值之间的平方差之和。

  3. 拟合优度: 线性回归模型的拟合优度可以通过 R2R2(决定系数)来衡量,它表示模型解释了因变量总变异的百分比。

  4. 假设检验: 回归系数的显著性通常通过t检验来检验,以确定每个自变量是否对因变量有显著影响。

  5. 模型假设: 线性回归模型通常有一些假设,包括线性关系、误差项的正态分布、同方差性(即误差项的方差恒定)以及自变量之间没有多重共线性等。

1

2

3

2、误差项定义

视频导航:2-误差项定义_哔哩哔哩_bilibili

什么是误差项定义?

在回归分析中,误差项 (Error Term),也称为残差(Residual),是指实际观测值与模型预测值之间的差异。具体来说,误差项可以定义为:

ϵi=yi−y^iϵi​=yi​−y^​i​

其中:

  • \epsilon_i \) 是第 \( i \) 个观测值的误差项。
  • \hat{y}_i \) 是模型对第 \( i \) 个观测值的预测值。
  1. 随机性: 误差项是由随机因素影响的,它反映了模型无法解释的部分。

  2. 期望值为零: 在理想情况下,误差项的期望值为零,即 E(ϵi)=0E(ϵi​)=0。这表示模型的预测值在长期平均上是准确的。

  3. 同方差性: 误差项的方差在所有观测值中应保持恒定。这一假设称为同方差性。如果误差项的方差随自变量的变化而变化,则称为异方差性。

  4. 独立性: 误差项通常假设是相互独立的。这意味着一个观测值的误差不应该与另一个观测值的误差相关。

  5. 正态分布: 在线性回归中,通常假设误差项服从正态分布。这有助于进行假设检验和置信区间估计。

误差项的这些特性对回归模型的有效性和可靠性有重要影响。违反这些假设可能会导致模型的预测不准确或统计推断失效。

1、上下平移

2

3

4、设x0只是为了我做一个转换,转换成矩阵的一种形式

5、计算做补位

6

7、真实值和值是存在误差的

8、

三、总结

个人学习笔记,定然还是存在许多问题的,各位博友,可以在文末评论处,留下你的宝贵意见。

相关推荐
云卓SKYDROID6 分钟前
除草机器人算法以及技术详解!
算法·机器人·科普·高科技·云卓科技·算法技术
数据与后端架构提升之路25 分钟前
从神经元到神经网络:深度学习的进化之旅
人工智能·神经网络·学习
半盏茶香29 分钟前
【C语言】分支和循环详解(下)猜数字游戏
c语言·开发语言·c++·算法·游戏
徐子童34 分钟前
双指针算法习题解答
算法
一行134 分钟前
电脑蓝屏debug学习
学习·电脑
想要打 Acm 的小周同学呀43 分钟前
LRU缓存算法
java·算法·缓存
星LZX1 小时前
WireShark入门学习笔记
笔记·学习·wireshark
阑梦清川1 小时前
在鱼皮的模拟面试里面学习有感
学习·面试·职场和发展
qq_433099401 小时前
Isaac Gym学习笔记——概述
学习
劲夫学编程2 小时前
leetcode:杨辉三角
算法·leetcode·职场和发展