十大机器学习算法-学习笔记-章节1-线性回归—

一、前言

学习视频:第一章:线性回归原理推导 1-回归问题概述_哔哩哔哩_bilibili

相关资料

该内容仅作为个人笔记使用,希望看到的各位能有所获,博主有误的地方,各位可以在评论区有所指正

二、正文

1、线性回归

什么是线性回归?

线性回归是一种用于建立变量之间关系的统计方法。具体来说,它通过拟合一条直线(在多变量情况下则是超平面)来预测因变量(响应变量)与一个或多个自变量(预测变量)之间的关系。线性回归的主要目标是找到最适合数据的直线,使得预测值与实际值之间的误差最小化。

线性回归的主要组成部分包括:

  1. 回归方程: 线性回归模型通常可以表示为:

    y=β0+β1x1+β2x2+⋯+βnxn+ϵy=β0​+β1​x1​+β2​x2​+⋯+βn​xn​+ϵ

    其中,yy 是因变量,x1,x2,...,xnx1​,x2​,...,xn​ 是自变量,β0β0​ 是截距,β1,β2,...,βnβ1​,β2​,...,βn​ 是回归系数,ϵϵ 是误差项。

  2. 最小二乘法: 线性回归通常通过最小二乘法来估计回归系数。最小二乘法的目标是最小化预测值和实际值之间的平方差之和。

  3. 拟合优度: 线性回归模型的拟合优度可以通过 R2R2(决定系数)来衡量,它表示模型解释了因变量总变异的百分比。

  4. 假设检验: 回归系数的显著性通常通过t检验来检验,以确定每个自变量是否对因变量有显著影响。

  5. 模型假设: 线性回归模型通常有一些假设,包括线性关系、误差项的正态分布、同方差性(即误差项的方差恒定)以及自变量之间没有多重共线性等。

1

2

3

2、误差项定义

视频导航:2-误差项定义_哔哩哔哩_bilibili

什么是误差项定义?

在回归分析中,误差项 (Error Term),也称为残差(Residual),是指实际观测值与模型预测值之间的差异。具体来说,误差项可以定义为:

ϵi=yi−y^iϵi​=yi​−y^​i​

其中:

  • \epsilon_i \) 是第 \( i \) 个观测值的误差项。
  • \hat{y}_i \) 是模型对第 \( i \) 个观测值的预测值。
  1. 随机性: 误差项是由随机因素影响的,它反映了模型无法解释的部分。

  2. 期望值为零: 在理想情况下,误差项的期望值为零,即 E(ϵi)=0E(ϵi​)=0。这表示模型的预测值在长期平均上是准确的。

  3. 同方差性: 误差项的方差在所有观测值中应保持恒定。这一假设称为同方差性。如果误差项的方差随自变量的变化而变化,则称为异方差性。

  4. 独立性: 误差项通常假设是相互独立的。这意味着一个观测值的误差不应该与另一个观测值的误差相关。

  5. 正态分布: 在线性回归中,通常假设误差项服从正态分布。这有助于进行假设检验和置信区间估计。

误差项的这些特性对回归模型的有效性和可靠性有重要影响。违反这些假设可能会导致模型的预测不准确或统计推断失效。

1、上下平移

2

3

4、设x0只是为了我做一个转换,转换成矩阵的一种形式

5、计算做补位

6

7、真实值和值是存在误差的

8、

三、总结

个人学习笔记,定然还是存在许多问题的,各位博友,可以在文末评论处,留下你的宝贵意见。

相关推荐
清梦20201 小时前
经典问题---跳跃游戏II(贪心算法)
算法·游戏·贪心算法
paixiaoxin1 小时前
CV-OCR经典论文解读|An Empirical Study of Scaling Law for OCR/OCR 缩放定律的实证研究
人工智能·深度学习·机器学习·生成对抗网络·计算机视觉·ocr·.net
Dream_Snowar1 小时前
速通Python 第四节——函数
开发语言·python·算法
Altair澳汰尔2 小时前
数据分析和AI丨知识图谱,AI革命中数据集成和模型构建的关键推动者
人工智能·算法·机器学习·数据分析·知识图谱
OopspoO2 小时前
qcow2镜像大小压缩
学习·性能优化
call me by ur name2 小时前
VLM--CLIP作分类任务的损失函数
人工智能·机器学习·分类
A懿轩A2 小时前
C/C++ 数据结构与算法【栈和队列】 栈+队列详细解析【日常学习,考研必备】带图+详细代码
c语言·数据结构·c++·学习·考研·算法·栈和队列
Python机器学习AI2 小时前
分类模型的预测概率解读:3D概率分布可视化的直观呈现
算法·机器学习·分类
居居飒2 小时前
Android学习(四)-Kotlin编程语言-for循环
android·学习·kotlin
kkflash33 小时前
提升专业素养的实用指南
学习·职场和发展