【机器学习】机器学习的基本分类-监督学习-线性回归(Linear Regression)

线性回归是监督学习中的一种基础算法,用于解决回归问题。它通过拟合一条直线(或平面、高维超平面),来预测输出与输入变量之间的关系。


1. 线性回归的基本概念

目标

给定输入 和对应的输出 y,找到一个线性函数:

其中:

  • 是权重(回归系数)。
  • b 是偏置(截距)。
  • y 是预测值。
损失函数

为了找到最佳的 w 和 b,需要最小化预测值 ​ 和真实值 的误差,常用的误差度量是 均方误差(MSE)

其中 m 是样本数。

通过优化该损失函数,可以得到最优的参数 w 和 b。


2. 线性回归的假设

  1. 线性关系:特征和目标变量之间具有线性关系。
  2. 独立性:数据样本是相互独立的。
  3. 同方差性:误差的方差相同,不随输入变化。
  4. 正态分布:误差服从正态分布。

如果这些假设不能成立,模型的性能可能会下降。


3. 线性回归的实现方式

线性回归可以通过以下两种方式实现:

3.1 正规方程法

通过解析法直接求解参数:

  • 优点:无需选择学习率,计算直接得出结果。
  • 缺点:当特征维度很高时,计算 的代价很高。
3.2 梯度下降法

通过迭代优化逐步减小损失函数值:

其中 α\alphaα 是学习率。

  • 优点:适用于大规模数据。
  • 缺点:需要选择合适的学习率,迭代次数较多。

4. Python 实现

4.1 数据生成
python 复制代码
import numpy as np
import matplotlib.pyplot as plt

# 生成模拟数据
np.random.seed(0)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

plt.scatter(X, y)
plt.xlabel("x")
plt.ylabel("y")
plt.title("Generated Data")
plt.show()
4.2 使用 Scikit-learn 实现
python 复制代码
import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

# 生成模拟数据
np.random.seed(0)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 数据集划分
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 线性回归模型
model = LinearRegression()
model.fit(X_train, y_train)

# 模型预测
y_pred = model.predict(X_test)

# 评估模型
mse = mean_squared_error(y_test, y_pred)
print(f"Mean Squared Error: {mse}")
print(f"Intercept: {model.intercept_}")
print(f"Coefficients: {model.coef_}")

输出结果

bash 复制代码
Mean Squared Error: 0.9177532469714291
Intercept: [4.20634019]
Coefficients: [[2.9902591]]
4.3 自定义实现(梯度下降法)
bash 复制代码
import numpy as np

# 生成模拟数据
np.random.seed(0)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 初始化参数
m = len(X)
theta = np.random.randn(2, 1)  # [w, b]
X_b = np.c_[np.ones((m, 1)), X]  # 添加偏置列

# 超参数
learning_rate = 0.1
n_iterations = 1000

# 梯度下降
for iteration in range(n_iterations):
    gradients = 2/m * X_b.T.dot(X_b.dot(theta) - y)
    theta -= learning_rate * gradients

print(f"Optimized Theta: {theta.ravel()}")

输出结果

bash 复制代码
Optimized Theta: [4.22215108 2.96846751]

5. 线性回归的优缺点

优点
  1. 简单易用,计算成本低。
  2. 结果具有较高的可解释性。
  3. 对小数据集表现良好。
缺点
  1. 假设特征和目标变量之间具有线性关系,适用性有限。
  2. 对异常值敏感。
  3. 无法很好地处理复杂的非线性关系。

6. 应用场景

  1. 预测分析:如房价预测、销售额预测。
  2. 统计建模:解释变量与目标之间的关系。
  3. 简单基线模型:为复杂模型提供参考基准。

7. 线性回归的扩展

  1. 岭回归(Ridge Regression):引入 L2 正则化,缓解过拟合问题。
  2. Lasso 回归:引入 L1 正则化,实现特征选择。
  3. 多项式回归:扩展到非线性关系,通过增加多项式特征拟合更复杂的模型。
相关推荐
健忘的派大星几秒前
【AI大模型】根据官方案例使用milvus向量数据库打造问答RAG系统
人工智能·ai·语言模型·llm·milvus·agi·rag
黑客-雨1 分钟前
从零开始:如何用Python训练一个AI模型(超详细教程)非常详细收藏我这一篇就够了!
开发语言·人工智能·python·大模型·ai产品经理·大模型学习·大模型入门
是Dream呀1 分钟前
引领AI发展潮流:打造大模型时代的安全与可信——CCF-CV企业交流会走进合合信息会议回顾
人工智能·安全·生成式ai
日出等日落3 分钟前
小白也能轻松上手的GPT-SoVITS AI语音克隆神器一键部署教程
人工智能·gpt
孤独且没人爱的纸鹤15 分钟前
【机器学习】深入无监督学习分裂型层次聚类的原理、算法结构与数学基础全方位解读,深度揭示其如何在数据空间中构建层次化聚类结构
人工智能·python·深度学习·机器学习·支持向量机·ai·聚类
viperrrrrrrrrr715 分钟前
大数据学习(40)- Flink执行流
大数据·学习·flink
后端研发Marion17 分钟前
【AI编辑器】字节跳动推出AI IDE——Trae,专为中文开发者深度定制
人工智能·ai编程·ai程序员·trae·ai编辑器
l1x1n019 分钟前
No.35 笔记 | Python学习之旅:基础语法与实践作业总结
笔记·python·学习
Tiger Z40 分钟前
R 语言科研绘图 --- 散点图-汇总
人工智能·程序人生·r语言·贴图
小深ai硬件分享2 小时前
Keras、TensorFlow、PyTorch框架对比及服务器配置揭秘
服务器·人工智能·深度学习