深度学习常见回归分支算法逐步分析,各种回归之间的优缺点,适用场景,举例演示

文章目录

  • [1、线性回归(Linear Regression)](#1、线性回归(Linear Regression))
    • [1.1 优点](#1.1 优点)
    • [1.2 缺点](#1.2 缺点)
    • [1.3 适用场景](#1.3 适用场景)
    • [1.4 图例说明](#1.4 图例说明)
  • [2、多项式回归(Polynomial Regression)](#2、多项式回归(Polynomial Regression))
    • [2.1 优点](#2.1 优点)
    • [2.2 缺点](#2.2 缺点)
    • [2.3 适用场景](#2.3 适用场景)
    • [2.4 图例说明](#2.4 图例说明)
  • [3、决策树回归(Decision Tree Regression)](#3、决策树回归(Decision Tree Regression))
    • [3.1 优点](#3.1 优点)
    • [3.2 缺点](#3.2 缺点)
    • [3.3 适用场景](#3.3 适用场景)
  • [4、随机森林回归(Random Forest Regression)](#4、随机森林回归(Random Forest Regression))
    • [4.1 优点](#4.1 优点)
    • [4.2 缺点](#4.2 缺点)
    • [4.3 适用场景](#4.3 适用场景)
  • [5、逻辑斯蒂回归(Logistic Regression)](#5、逻辑斯蒂回归(Logistic Regression))
    • [5.1 优点](#5.1 优点)
    • [5.2 缺点](#5.2 缺点)
    • [5.3 适用场景](#5.3 适用场景)
  • [6、弹性网络回归(Elastic Net Regression)](#6、弹性网络回归(Elastic Net Regression))
    • [6.1 优点](#6.1 优点)
    • [6.2 缺点](#6.2 缺点)
    • [6.3 适用场景](#6.3 适用场景)
  • [7、岭回归(Ridge Regression)](#7、岭回归(Ridge Regression))
    • [7.1 优点](#7.1 优点)
    • [7.2 缺点](#7.2 缺点)
    • [7.3 适用场景](#7.3 适用场景)
  • [8、Lasso回归(Lasso Regression)](#8、Lasso回归(Lasso Regression))
    • [8.1 优点](#8.1 优点)
    • [8.2 缺点](#8.2 缺点)
    • [8.3 适用场景](#8.3 适用场景)

回归的概念:回归算法是一种用于预测连续数值输出的监督学习算法,可以根据输入特征预测一个或多个目标变量。它有多个分支,每个分支都有其独特的优缺点。下面是深度学习中几类回归变种:

1、线性回归(Linear Regression)

线性回归算法可以说是回归算法里面最简单的一种。

1.1 优点

  • 简单且易于解释。
  • 计算效率高,适用于大规模数据集。
  • 在特征与目标之间存在线性关系时效果良好。

1.2 缺点

  • 无法处理非线性关系。对于一些异常值,无法做到拟合曲线。
  • 对异常值敏感。
  • 需要满足线性回归假设(如线性关系、残差正态分布等)。

1.3 适用场景

适用场景:预测数值型目标,建立输入特征和输出之间的线性关系。

案例:预测房价。根据房屋特征(面积、卧室数量等),建立线性关系来估计房价。


1.4 图例说明

代码:

bash 复制代码
import matplotlib.pyplot as plt
import numpy as np

# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 数据
area = np.array([50, 75, 100, 120, 150])
price = np.array([120, 180, 220, 250, 300])

# 执行线性回归
coefficients = np.polyfit(area, price, 1)
m, b = coefficients

# 创建预测模型
predict_model = np.poly1d(coefficients)

# 生成预测值
predicted_price = predict_model(area)

# 绘制原始数据点
plt.scatter(area, price, label='实际数据点')

# 绘制线性回归线
plt.plot(area, predicted_price, label=f'线性回归: y = {m:.2f}x + {b:.2f}', color='red')

# 添加标签和图例
plt.xlabel('房屋面积(平方米)')
plt.ylabel('价格(万元)')
plt.title('线性回归')
plt.legend()
# 显示图形
plt.show()

生成对应图像:

深度学习中的线性回归

代码:

bash 复制代码
import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 生成模拟数据
np.random.seed(42)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 转换为PyTorch的Tensor
X_tensor = torch.from_numpy(X).float()
y_tensor = torch.from_numpy(y).float()

# 定义线性回归模型
class LinearRegressionModel(nn.Module):
    def __init__(self, input_size, output_size):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_size, output_size)

    def forward(self, x):
        return self.linear(x)

# 实例化模型
input_size = 1
output_size = 1
model = LinearRegressionModel(input_size, output_size)

# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)

# 训练模型
num_epochs = 100
for epoch in range(num_epochs):
    # Forward pass
    outputs = model(X_tensor)
    loss = criterion(outputs, y_tensor)

    # Backward pass and optimization
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    # 打印训练过程中的损失
    if (epoch+1) % 10 == 0:
        print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

# 绘制模型预测结果和真实数据
predicted = model(X_tensor).detach().numpy()
plt.scatter(X, y, label='实际数据点')
plt.plot(X, predicted, label='模型预测', color='red')
plt.xlabel('房屋面积(平方米)')
plt.ylabel('价格(万元)')
plt.title('线性回归')
plt.legend()
plt.show()

生成对应的图像:

是不是看着比简单的回归复杂很多,深度模型解决的回归问题还要比这复杂得多。

2、多项式回归(Polynomial Regression)

2.1 优点

  • 可以捕捉特征和目标之间的非线性关系。
  • 相对简单实现。

2.2 缺点

  • 可能会过度拟合数据,特别是高阶多项式。
  • 需要选择适当的多项式阶数。

2.3 适用场景

适用场景:处理非线性关系,通过添加多项式特征来拟合曲线。

案例:预测股票价格。使用多项式回归来拟合价格与时间之间的非线性关系。

2.4 图例说明

代码:

bash 复制代码
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.metrics import mean_squared_error

# 设置中文显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 生成模拟数据
np.random.seed(42)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)

# 选择多项式次数
degree = 2

# 构建设计矩阵
poly_features = PolynomialFeatures(degree=degree, include_bias=False)
X_poly = poly_features.fit_transform(X)

# 使用线性回归拟合多项式特征
lin_reg = LinearRegression()
lin_reg.fit(X_poly, y)

# 预测
X_new = np.linspace(0, 2, 100).reshape(-1, 1)
X_new_poly = poly_features.transform(X_new)
y_new = lin_reg.predict(X_new_poly)

# 绘制结果
plt.scatter(X, y, label='True data')
plt.plot(X_new, y_new, 'r-', label='Predictions', linewidth=2)
plt.xlabel('X')
plt.ylabel('y')
plt.title('多项式线性回归')
plt.legend()
plt.show()

# 评估模型
y_pred = lin_reg.predict(X_poly)
mse = mean_squared_error(y, y_pred)
print(f'Mean Squared Error: {mse:.4f}')

生成对应图像:

3、决策树回归(Decision Tree Regression)

3.1 优点

  • 能够处理非线性关系。
  • 不需要对数据进行特征缩放。
  • 结果易于可视化和解释。

3.2 缺点

  • 容易过拟合。树越深,越可能发生过拟合现象。
  • 对数据中的噪声敏感。
  • 不稳定,小的数据变化可能导致不同的树结构。

3.3 适用场景

适用场景:适用于非线性数据,创建树状结构进行回归预测。

案例:天气预测。基于多个天气因素,预测温度。

4、随机森林回归(Random Forest Regression)

4.1 优点

  • 降低了决策树回归的过拟合风险。
  • 能够处理高维数据。

4.2 缺点

  • 失去了部分可解释性。
  • 难以调整模型参数。

4.3 适用场景

适用场景:用于回归任务,具有高度的鲁棒性。

案例:股票价格预测。使用多个随机森林树来预测未来的股票价格。

5、逻辑斯蒂回归(Logistic Regression)

5.1 优点

  • 用于二分类问题,广泛应用于分类任务。
  • 输出结果可以解释为概率。

5.2 缺点

  • 仅适用于二分类问题。这是它的优点,也是它的缺点。
  • 对于复杂的非线性问题效果可能不佳。对线性问题解答较好。

5.3 适用场景

适用场景:用于二分类或多分类任务,预测概率分布。

案例:垃圾邮件分类。根据邮件内容来判断是否是垃圾邮件。

6、弹性网络回归(Elastic Net Regression)

6.1 优点

  • 综合了岭回归和Lasso回归的优点。
  • 可以应对多重共线性和特征选择。

6.2 缺点

  • 需要调整两个正则化参数。

6.3 适用场景

适用场景:结合了 Ridge 和 Lasso 的优点,适用于高维数据和特征选择。

案例:医学诊断。处理具有大量特征的患者数据,选择最相关的特征。

7、岭回归(Ridge Regression)

7.1 优点

  • 可以解决多重共线性问题。
  • 对异常值不敏感。

7.2 缺点

  • 不适用于特征选择,所有特征都会被考虑。
  • 参数需要调整。

7.3 适用场景

适用场景:处理多重共线性问题,添加L2正则化以防止过拟合。

案例:预测学生成绩。处理多个高度相关的特征,如学习时间、家庭支持等。

8、Lasso回归(Lasso Regression)

8.1 优点

  • 可以用于特征选择,趋向于将不重要的特征的系数推到零。
  • 可以解决多重共线性问题。

8.2 缺点

  • 对于高维数据,可能会选择较少的特征。
  • 需要调整正则化参数。

8.3 适用场景

适用场景:用于特征选择和稀疏性,通过L1正则化将一些特征的权重设为零。

案例:预测产品销量。确定哪些产品特征对销售额的影响最大。

相关推荐
盼海25 分钟前
排序算法(五)--归并排序
数据结构·算法·排序算法
HPC_fac130520678161 小时前
以科学计算为切入点:剖析英伟达服务器过热难题
服务器·人工智能·深度学习·机器学习·计算机视觉·数据挖掘·gpu算力
网易独家音乐人Mike Zhou4 小时前
【卡尔曼滤波】数据预测Prediction观测器的理论推导及应用 C语言、Python实现(Kalman Filter)
c语言·python·单片机·物联网·算法·嵌入式·iot
Swift社区7 小时前
LeetCode - #139 单词拆分
算法·leetcode·职场和发展
Kent_J_Truman8 小时前
greater<>() 、less<>()及运算符 < 重载在排序和堆中的使用
算法
IT 青年9 小时前
数据结构 (1)基本概念和术语
数据结构·算法
Dong雨9 小时前
力扣hot100-->栈/单调栈
算法·leetcode·职场和发展
SoraLuna9 小时前
「Mac玩转仓颉内测版24」基础篇4 - 浮点类型详解
开发语言·算法·macos·cangjie
老艾的AI世界9 小时前
AI翻唱神器,一键用你喜欢的歌手翻唱他人的曲目(附下载链接)
人工智能·深度学习·神经网络·机器学习·ai·ai翻唱·ai唱歌·ai歌曲
liujjjiyun9 小时前
小R的随机播放顺序
数据结构·c++·算法