【数据分析】线性及逻辑回归模型和Python实现

各位大佬好 ,这里是阿川的博客,祝您变得更强

个人主页在线OJ的阿川

大佬的支持和鼓励,将是我成长路上最大的动力

阿川水平有限,如有错误,欢迎大佬指正

Python 初阶
Python--语言基础与由来介绍
Python--注意事项
Python--语句与众所周知
数据清洗前 基本技能
数据分析---技术栈和开发环境搭建
数据分析---Numpy和Pandas库基本用法及实例
回归模型前 必看
数据分析---三前奏:获取/ 读取/ 评估数据
数据分析---数据清洗操作及众所周知
数据分析---数据整理操作及众所周知
数据分析---统计学基础及Python具体实现
数据分析---数据可视化Python实现超详解
数据分析---推断统计学及Python实现

目录

  • 线性回归模型简介
    • 相关关系
    • 相关系数r
    • 共线性问题
    • 回归线
    • 残差
    • 拟合目标
    • 线性回归模型预测拟合度
    • 虚拟变量
  • 逻辑回归模型简介
    • 拟合程度
    • 最优参数值
  • 线性回归Python具体实现
  • 逻辑回归Python具体实现

回归模型 是机器学习中很重要的一个数学模型
机器学习

  • 简单线性回归
  • 多元线性回归
  • 逻辑回归

线性回归模型简介

相关关系

  • 正相关
  • 负相关
  • 不相关

相关系数r

  • 研究变量 之间 线性关系相关程度
    • 即衡量已知数据相关性
  • 接近1 ,表示越接近线性正相关
  • 接近-1 ,表示越接近线性负相关
  • 接近0 ,表示越接近线性不相关

r = n ∑ x y − ( ∑ x ) ( ∑ y ) [ n ∑ x 2 − ( ∑ x ) 2 ] [ n ∑ y 2 − ( ∑ y ) 2 ] r=\frac{n\sum xy-(\sum x)(\sum y)}{\sqrt{[n\sum x^2-(\sum x)^2][n\sum y^2-(\sum y)^2]}} r=[n∑x2−(∑x)2][n∑y2−(∑y)2] n∑xy−(∑x)(∑y)
r皮尔逊积矩相关系数 ,表示两个变量间的线性关系强度方向 ,其阈值 为[-1,1]
x :通常作为自变量
y :通常作为因变量
∑ \sum ∑求和符号,表示加和一系列数值

多元线性回归 中发现两个自变量相关系数r绝对值大去除 其中的一个 自变量

例如:超过0.8或0.9可以考虑移除其中一个

  • 因为一般认为相关系数大于0.8及以上 ,会导致严重共线性问题

共线性问题

  • 若本身两个变量间高度相关 的,而处理过程 中将两个变量认为不相关/相互独立的 ,会导致 系数估计不准确 ,从而对预测 产生影响
    例如:若男性和女性两个变量 分别设置两个虚拟变量 ,会导致共线性问题
    • 因为 男和女这两个变量本身是高度相关的 ,所以设置一个虚拟变量 (1设成男,0设成女或者 1设成男,0设成女),且当 知道N-1虚拟变量值 时,可以直接推导出第n个值说明 他们之间存在相关联 设第n个虚拟变量是没必要的 ,会导致共线性问题

回归线

  • 拟合 图中的数据点 ,尽可能的去靠近 图中每个数据点的直线

残差

  • 回归线的实际观测值 与估计值(拟合值 )之间的

拟合目标

  • 所有残差平方和最小

更专业的术语

  • 最小二乘法
    • 通过最小化残差平方和 来找到最好的模型参数

除了 相关系数r 也要 关注 p值

独立双样本t/z检验 中有一个叫做p值
p值小拒绝原假设

  • 自变量对因变量有统计显著性影响
    • 自变量对因变量有显著预测作用

p值大接受原假设

  • 自变量对因变量无统计显著性影响
    • 自变量对因变量无显著预测作用

p值大 的自变量可选择剔除 (因为该自变量对因变量无显著预测作用 ),再进行多轮拟合 ,再反复调整 去求截距和系数,可以降低 对预测值的干扰误导

线性回归模型预测拟合度

R^2^ 衡量 线性回归模型整体预测拟合度

  • R^2^范围值 [0,1]
    • 接近 1 ,说明模型的预测值与实际观察值相差越小 ,使得线性回归模型整体和实际高拟合
    • 接近 0 ,说明模型的预测值与实际观察值相差越大 ,使得线性回归模型整体和实际低拟合

R 2 = 1 − ∑ i = 1 n ( y i − y ^ i ) 2 ∑ i = 1 n ( y i − y ˉ ) 2 R^2=1-\frac{\sum_{i=1}^{n} (y_i-\hat{y}i)^2} {\sum{i=1}^{n}(y_i-\bar{y})^2} R2=1−∑i=1n(yi−yˉ)2∑i=1n(yi−y^i)2
y i y_i yi第i个观测因变量值
y ˉ \bar{y} yˉ所有观测因变量值的平均值
y ^ i \hat{y}_i y^i :由模型给出第i个观测的观测因变量值

虚拟变量

在线性回归模型中表示分类变量引入虚拟变量

  • 只取0和1这两个值的变量

根据 分类的类别 ,若有n种类型 ,则引入n-1个虚拟变量

  • 引入n个虚拟变量 ,则会引起共线性问题

pd.get_dummies(DataFrame名, columns=[" 分类变量"], dtype=int, drop_first)分类变量 转化虚拟变量0/1 ,且删除 第1个引用的虚拟变量 (从而保持 n-1个虚拟变量

逻辑回归模型简介

逻辑回归

  • 处理二分类问题在零和一之间
    • 设置阈值 ,一般为0.5 ,但可以根据具体情况来调整阈值

拟合程度

最大似然估计

  • 需要用到数值优化算法 (例如其中的梯度下降 等)来寻找最优参数值

需要排除 高度相关的变量否则导致 数值优化算法无法收敛 的问题,无法计算模型参数值

最优参数值

  • 在这参数值下观察 到的样本出现概率是最大的 ,从而让模型预测 和样本之间差距越小

求出 最优参数值看p值

自变量系数值 ,然后 自然常数e 求系数的那个值的次方反映的 是自变量对因变量的倍数影响

线性回归Python具体实现

简单线性回归 y=b~0~+mx

  • 预测未知数据 自变量值预测因变量值
    • 因变量受到一个自变量影响

多元线性回归 y=b~0~+b~1~x+b~2~x+...+b~n~x~n~

  • 因变量 受到 多个自变量影响
    • 自变量 应该相互独立不应该高度相关
      • 否则导致系数估计不准确

y = b 0 + m x y= b_{0}+mx y=b0+mx
或者
y = b 0 + b 1 x + + b 2 x + . . + b n x n y= b_{0}+b_1x++b_2x+..+b_nx_n y=b0+b1x++b2x+..+bnxn
b = ∑ y i − m ( ∑ x i ) n b=\frac{\sum y_i-m(\sum x_i)}{n} b=n∑yi−m(∑xi)
m = n ( ∑ x i y i ) − ( ∑ x i ) n ( ∑ x i 2 ) − ( ∑ x i ) 2 m=\frac{n(\sum x_iy_i)-(\sum x_i)}{ n(\sum x_i^2)-(\sum x_i)^2} m=n(∑xi2)−(∑xi)2n(∑xiyi)−(∑xi)
y因变量
b 0 b_0 b0y轴截距 ,可以视为 与常量1相乘

m, b 1 b_1 b1, b 2 b_2 b2... b n b_n bn斜率也称系数
x自变量
x i x_i xi第i个观测自变量值
y i y_i yi第i个观测因变量值

安装 statsmodels库 ,并引入模块import statsmodels.api as sm

y=DataFrame名[" "] 提取因变量
x=DataFrame名.drop[" ",axis=1] 删除掉因变量从而提取自变量
或者
x=DataFrame名[[" "]] 选择提取自变量

自变量1.corr(自变量2) 验证自变量间相关性

  • 结果越接近1 说明越相关
  • 结果越接近0 说明越不相关
    或者

DataFrame名.corr() 自动对各变量 之间找相关系数

.abs() 得到所有元素绝对值

  • 还可以搭配热力图heatmap,一眼看出颜色深浅

相关系数0.8 作为阈值 ,进行筛选相关自变量确保不会 导致共线性问题然后 开始求截距
sm.add_constant(参数) 将截距常量1纳入模型

sm.OLS(因变量,自变量) 最小二乘法
.fit() 对数据进行拟合并生成一个实例
.summery() 对实例 进行展示

当得到线性回归模型后进行预测

pd.Categorical(DataFrame[分类变量], categories=[" "])分类变量 转化为category类型

  • categories 该参数 可以告诉系统虚拟变量的全部类型

get_dummies()分类变量转化虚拟变量

线性回归模型.predict(传入包含所有自变量的DataFrame) 预测模型

  • 要求每列都是 模型中的自变量 (不多不少),这样每行 才是一个要预测的观测值

结构流程图

在模型中没有标准答案 ,去尝试调整验证模型

逻辑回归Python具体实现

逻辑回归 l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1−pp)=b0+b1x+b2x+..+bnxn

l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1−pp)=b0+b1x+b2x+..+bnxn
p = 1 1 + e − ( b 0 + b 1 x + b 2 x + . . + b n x n ) p=\frac{1}{1+e^{-(b_0+b_1x+b_2x+..+b_nx_n)}} p=1+e−(b0+b1x+b2x+..+bnxn)1
p因变量y=1的概率 ( y是二元变量 ,只能取0或1
x 1 x_1 x1, x 2 x_2 x2, x 3 x_3 x3,... x n x_n xn:预测变量
b 0 b_0 b0, b 1 b_1 b1, b 2 b_2 b2,..., b n b_n bn是回归系数
先导入模板import statsmodels.api as sm

pd.get_dummiesDataFrame, columns=[" 分类变量"], dtype=int, drop_first)将分类变量转化为虚拟变量
.corr() 排除共线性问题
.abs() 转化为绝对值
sm.add_constant() 截距常量1纳入模型

sm.Logit(因变量,自变量) 最大似然估计
.fit() 对数据进行拟合并生成实例
.summary() 查看输出
先看p值 看哪些变量没有显著预测作用 ,一般设置阈值0.05再看 codf系数, 要将该系数翻译成 自然语言e的倍数
np.exp() 计算e的多少次方
.predict() 预测模型

好的,到此为止啦,祝您变得更强


想说的话

实不相瞒,这篇博客写了9个小时以上(加上自己学习了三遍和纸质笔记,共十一小时 吧),很累希望大佬支持

道阻且长 行则将至

个人主页:在线OJ的阿川大佬的支持和鼓励,将是我成长路上最大的动力

相关推荐
q567315238 分钟前
在 Bash 中获取 Python 模块变量列
开发语言·python·bash
是萝卜干呀9 分钟前
Backend - Python 爬取网页数据并保存在Excel文件中
python·excel·table·xlwt·爬取网页数据
代码欢乐豆10 分钟前
数据采集之selenium模拟登录
python·selenium·测试工具
阿伟来咯~19 分钟前
记录学习react的一些内容
javascript·学习·react.js
Suckerbin41 分钟前
Hms?: 1渗透测试
学习·安全·网络安全
狂奔solar1 小时前
yelp数据集上识别潜在的热门商家
开发语言·python
Tassel_YUE1 小时前
网络自动化04:python实现ACL匹配信息(主机与主机信息)
网络·python·自动化
水豚AI课代表1 小时前
分析报告、调研报告、工作方案等的提示词
大数据·人工智能·学习·chatgpt·aigc
聪明的墨菲特i1 小时前
Python爬虫学习
爬虫·python·学习
Diamond技术流1 小时前
从0开始学习Linux——网络配置
linux·运维·网络·学习·安全·centos