【数据挖掘】岭回归(Ridge Regression)和线性回归(Linear Regression)对比实验

这是一个非常实用的 岭回归(Ridge Regression)和线性回归(Linear Regression)对比实验 ,使用了 scikit-learn 中的 California Housing 数据集 来预测房价。


📦 第一步:导入必要的库

复制代码
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

from sklearn.linear_model import Ridge, Lasso, LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.datasets import fetch_california_housing as fch

🔹 Ridge, Lasso, LinearRegression:三种回归模型

🔹 fetch_california_housing:加载加州房价数据集

🔹 train_test_split:划分训练集和测试集

🔹 matplotlib.pyplot:画图


🏠 第二步:加载数据并观察

复制代码
house_value = fch()
X = pd.DataFrame(house_value.data)
y = house_value.target
X.columns = ["住户收入中位数", "房屋使用年代中位数", "平均房间数目", "平均卧室数目", "街区人口", "平均入住率", "街区垢纬度", "街区的经度"]

Xtmp = X.copy()
Xtmp['价格'] = y
display(Xtmp)

✅ 将数据转换为 DataFrame 并设置列名,更方便分析。

display(Xtmp) 会在 Jupyter Notebook 中以表格形式展示数据。


✂️ 第三步:划分训练集和测试集

复制代码
xtrain, xtest, ytrain, ytest = train_test_split(X, y, test_size=0.3, random_state=420)
for i in [xtrain, xtest]:
    i.index = range(i.shape[0])  # 重置索引,避免索引错乱

✅ 划分比例为 70% 训练 + 30% 测试

✅ 重置索引是个好习惯,有利于数据对齐


🧮 第四步:使用 Ridge 回归 进行建模和评估

复制代码
reg = Ridge(alpha=5).fit(xtrain, ytrain)
r2_score = reg.score(xtest, ytest)
print("r2:%.8f" % r2_score)

🔹 这里用岭回归拟合训练集,使用 alpha=5 作为正则化系数。

🔹 reg.score() 返回的是 R²(决定系数),衡量模型拟合效果,越接近 1 越好。


🔁 第五步:不同 alpha 下 Ridge 与普通线性回归对比

复制代码
from sklearn.model_selection import cross_val_score
alpha_range = np.arange(1, 1001, 100)
ridge, lr = [], []

for alpha in alpha_range:
    reg = Ridge(alpha=alpha)
    linear = LinearRegression()
    
    # 用交叉验证评估两种模型的平均 R²
    regs = cross_val_score(reg, X, y, cv=5, scoring='r2').mean()
    linears = cross_val_score(linear, X, y, cv=5, scoring='r2').mean()
    
    ridge.append(regs)
    lr.append(linears)

🔍 cross_val_score:使用 5 折交叉验证,平均 R² 得分

  • ridge.append():记录不同 alpha 下岭回归得分

  • lr.append():记录普通线性回归得分(其实是一个水平线)


📈 第六步:可视化 Ridge 与 Linear 回归对比结果

复制代码
plt.plot(alpha_range, ridge, c='red', label='Ridge')
plt.plot(alpha_range, lr, c='orange', label='LR')
plt.title('Mean')
plt.legend()
plt.ylabel('R2')
plt.show()

✅ 横轴是 alpha,纵轴是交叉验证 R²

✅ 岭回归的性能随着 alpha 变化,线性回归是常数线

✅ 可以直观对比正则化对模型的影响


📌 总结这个实验做了什么?

步骤 作用
加载数据 得到特征和标签
建立模型 使用岭回归拟合预测房价
模型评估 输出 R² 指数
交叉验证 比较岭回归与线性回归的表现随 alpha 变化的趋势
可视化 看不同 alpha 对 Ridge 的影响,并与线性回归对比

✅ 建议拓展方向

可以继续做这些改进:

  1. 加入标准化(StandardScaler):防止特征量纲影响回归权重;

  2. 尝试 Lasso 回归:看看稀疏化是否会带来更优的模型;

  3. 绘制训练误差与测试误差对比图:分析是否过拟合;

  4. 使用 GridSearchCV 自动调参:找到最优 alpha。


以下是一个完整的房价预测回归分析代码,包含:

  • 岭回归(Ridge)

  • Lasso 回归

  • 普通线性回归

  • 标准化处理(StandardScaler

  • 网格搜索调参(GridSearchCV

  • 模型评分比较

  • 可视化对比


✅ 完整代码如下:

复制代码
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import fetch_california_housing
from sklearn.linear_model import Ridge, Lasso, LinearRegression
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split, GridSearchCV, cross_val_score

# 1. 加载数据
data = fetch_california_housing()
X = pd.DataFrame(data.data, columns=data.feature_names)
y = data.target

# 2. 数据划分
xtrain, xtest, ytrain, ytest = train_test_split(X, y, test_size=0.3, random_state=42)

# 3. 特征标准化
scaler = StandardScaler()
xtrain_scaled = scaler.fit_transform(xtrain)
xtest_scaled = scaler.transform(xtest)

# 4. 定义回归模型
models = {
    "LinearRegression": LinearRegression(),
    "Ridge": Ridge(),
    "Lasso": Lasso()
}

# 5. 设置超参数搜索空间
param_grid = {
    "Ridge": {"alpha": np.logspace(-3, 3, 20)},
    "Lasso": {"alpha": np.logspace(-3, 3, 20)}
}

# 6. 模型训练与调参
best_models = {}
for name, model in models.items():
    if name in param_grid:
        print(f"正在搜索最优参数:{name}")
        grid = GridSearchCV(model, param_grid[name], cv=5, scoring="r2")
        grid.fit(xtrain_scaled, ytrain)
        best_models[name] = grid.best_estimator_
        print(f"{name} 最佳 alpha: {grid.best_params_['alpha']:.4f}")
    else:
        model.fit(xtrain_scaled, ytrain)
        best_models[name] = model

# 7. 模型评估
print("\n模型性能对比(R² 得分):")
for name, model in best_models.items():
    score = model.score(xtest_scaled, ytest)
    print(f"{name}: R² = {score:.4f}")

# 8. 可视化对比
r2_scores = [model.score(xtest_scaled, ytest) for model in best_models.values()]
model_names = list(best_models.keys())

plt.figure(figsize=(8, 5))
plt.bar(model_names, r2_scores, color=["orange", "red", "green"])
plt.ylabel("R²")
plt.title("不同回归模型性能对比")
for i, score in enumerate(r2_scores):
    plt.text(i, score + 0.01, f"{score:.4f}", ha='center')
plt.ylim(0, max(r2_scores) + 0.1)
plt.grid(True, linestyle='--', alpha=0.5)
plt.show()

📊 输出内容包括:

  • 每种模型的 R² 得分

  • Ridge 和 Lasso 的最佳 alpha(正则项系数)

  • 一张柱状图对比三种模型在测试集上的表现

相关推荐
Leo.yuan3 小时前
热力图是什么?三分钟学会热力图数据分析怎么做!
大数据·数据库·数据挖掘·数据分析·html
枝上棉蛮4 小时前
智慧医院的可视化变革:可视化工具助力数字化转型
信息可视化·数据挖掘·数据分析·数字孪生·数据可视化·智慧医院
郜太素4 小时前
PyTorch 线性回归模型构建与神经网络基础要点解析
pytorch·神经网络·线性回归·激活函数
KingDol_MIni13 小时前
Transformer-LSTM混合模型在时序回归中的完整流程研究
回归·lstm·transformer
qq_4369621815 小时前
AI数据分析中的伪需求场景:现状、挑战与突破路径
人工智能·数据挖掘·数据分析·ai数据分析
鸿蒙布道师16 小时前
ChatGPT深度研究功能革新:GitHub直连与强化微调
人工智能·深度学习·神经网络·自然语言处理·chatgpt·数据挖掘·github
Navicat中国16 小时前
Navicat BI 数据分析功能上线 | 数据洞察新方法
数据库·人工智能·信息可视化·数据挖掘·数据分析·navicat·bi
audyxiao00117 小时前
人工智能顶会ICLR 2025论文分享│PointOBB-v2:更简单、更快、更强的单点监督有向目标检测
人工智能·目标检测·计算机视觉·数据挖掘·主成分分析·单点监督
白杆杆红伞伞19 小时前
02_线性模型(回归线性模型)
人工智能·数据挖掘·回归
QFIUNE1 天前
数据分析之药物-基因-代谢物
数据挖掘·数据分析