【深度学习】第3章实验——回归模型

根据相关数据集进行回归分析

python 复制代码
import statsmodels.api as sm
# df.loc[:, ...] 表示选择所有行。
# df.columns != 'mpg' 创建一个布尔数组,指示哪些列不等于 'mpg'。
# df.loc[:, df.columns != 'mpg'] 选择 df 中所有行和列名不等于 'mpg' 的所有列。
x =df.loc[:,df.columns!='mpg']

#在数据框 x 中添加一列常数值(通常为 1)。
#这一列称为截距项(intercept),在回归分析中非常重要。
#这样做的目的是确保模型在进行线性回归时,包括一个常数项(截距)。
x=sm.add_constant(x)
y = df['mpg']

# 随机抽取 x 数据框中的 6 行数据。
x.sample(6)
python 复制代码
import statsmodels.formula.api as smf

#smf.ols 是使用普通最小二乘法(OLS)进行线性回归分析的函数。
#formula='mpg~hp+C(vs)+C(am)' 定义了回归模型的公式
#mpg 是因变量(或目标变量),即我们要预测的变量。
#hp 是自变量之一,即预测变量。
#C(vs) 和 C(am) 表示 vs 和 am 是分类变量(categorical variables)。C 函数将这些变量视为分类变量,而不是连续变量。
#data=df 指定了数据源 df
#.fit() 方法用于拟合模型,即根据提供的数据进行线性回归分析,并生成一个包含拟合结果的模型对象。
model = smf.ols(formula='mpg~hp+C(vs)+C(am)',data=df).fit()

#打印模型摘要
print(model.summary())
python 复制代码
#使用先前拟合的线性回归模型对新的数据进行预测
y_hat = model.predict(x)
#随机抽取并展示5个预测值:
y_hat.sample(5)
python 复制代码
import numpy as np
#计算模型预测结果的均方根误差
#反映了预测值与实际值之间的差异大小
model_RMSE = np.sqrt(np.mean(np.square(y_hat-y)))
model_RMSE
python 复制代码
fig = plt.figure(figsize=(12,8))
#使用 plot_regress_exog 函数来绘制回归模型的外生变量(exogenous variable)的回归诊断图
fig = sm.graphics.plot_regress_exog(model,"hp",fig = fig)
相关推荐
字节数据平台1 分钟前
一客一策:Data Agent 如何重构大模型时代的智能营销
大数据·人工智能·重构
机器之心19 分钟前
字节Seedream 4.0将全量开放!抢先评测来了,我们摸索出AI生图一大波「邪修」玩法
人工智能·openai
空白到白22 分钟前
机器学习-集成学习
人工智能·机器学习·集成学习
水凌风里23 分钟前
4.4 机器学习 - 集成学习
人工智能·机器学习·集成学习
雲_kumo24 分钟前
集成学习:从理论到实践的全面解析
人工智能·机器学习·集成学习
用户51914958484533 分钟前
30条顶级APT与蓝队攻防单行命令:网络战场终极对决
人工智能·aigc
双向3334 分钟前
AI 辅助文档生成:从接口注释到自动化 API 文档上线
人工智能
CoovallyAIHub1 小时前
SBP-YOLO:面向嵌入式悬架的轻量实时模型,实现减速带与坑洼高精度检测
深度学习·算法·计算机视觉
算法打盹中1 小时前
基于树莓派与Jetson Nano集群的实验边缘设备上视觉语言模型(VLMs)的性能评估与实践探索
人工智能·计算机视觉·语言模型·自然语言处理·树莓派·多模态·jetson nano