利用逻辑回归判断病人肺部是否发生病变

大家好,我是带我去滑雪!

判断肺部是否发生病变可以及早发现疾病、指导治疗和监测疾病进展,以及预防和促进肺部健康,定期进行肺部评估和检查对于保护肺健康、预防疾病和提高生活质量至关重要。本期将利用相关医学临床数据结合逻辑回归判断病人肺部是否发生病变,其中响应变量为group(1表示肺部发生病变,0表示正常),特征变量为ESR(表示红细胞沉降率)、CRP(表示C-反应蛋白)、ALB(表示白蛋白)、Anti-SSA(表示抗SSA抗体)、Glandular involvement(表示腺体受累)、gender(表示性别)、c-PSA(cancer-specific prostate-specific antigen)、CA 15-3(Cancer Antigen 15-3)、TH17(Th17细胞)、ANA(代表抗核抗体)、CA125(Cancer Antigen 125)、LDH(代表乳酸脱氢酶)。下面开始使用逻辑回归进行肺部病变判断。

(1)导入相关模块与数据

import pandas as pd

import matplotlib.pyplot as plt
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix
from sklearn.metrics import classification_report
from sklearn.metrics import cohen_kappa_score#导入包
import numpy as np
from scipy.stats import logistic
import matplotlib.pyplot as plt
titanic = pd.read_csv('filename1.csv')
titanic#导入数据

输出结果:

| | data.Age | impute.data.ESR..mean. | impute.data.CRP..mean. | impute.data.ALB..mean. | impute.data.Anti.SSA..median. | impute.data.Glandular.involvement..median. | impute.data.Gender..median. | impute.data.c.PSA..mean. | impute.data.CA153..mean. | impute.data.TH17..mean. | impute.data.ANA..median. | impute.data.CA125..mean. | impute.data.LDH..mean. | data.group |
| 0 | 67 | 21.000000 | 4.810000 | 38.692661 | 0 | 0 | 0 | 0.300000 | 3.50000 | 10.330000 | 1 | 3.000000 | 212.210493 | 0 |
| 1 | 78 | 33.000000 | 12.089916 | 41.100000 | 0 | 0 | 0 | 0.610931 | 22.40000 | 7.465353 | 1 | 17.500000 | 485.000000 | 0 |
| 2 | 69 | 24.000000 | 2.250000 | 42.700000 | 0 | 0 | 0 | 0.300000 | 5.40000 | 8.020000 | 0 | 4.360000 | 236.000000 | 0 |
| 3 | 71 | 43.000000 | 21.800000 | 39.200000 | 0 | 0 | 0 | 0.300000 | 11.11000 | 5.500000 | 1 | 6.700000 | 166.000000 | 0 |
| 4 | 69 | 20.000000 | 2.430000 | 47.600000 | 3 | 0 | 0 | 0.300000 | 6.93000 | 4.310000 | 0 | 3.520000 | 223.000000 | 0 |
| ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
| 954 | 63 | 40.274914 | 2.370000 | 40.300000 | 2 | 0 | 0 | 0.430000 | 6.10000 | 6.560000 | 0 | 7.720000 | 234.000000 | 0 |
| 955 | 68 | 27.000000 | 3.520000 | 41.000000 | 3 | 0 | 0 | 0.320000 | 7.52000 | 4.780000 | 1 | 7.150000 | 254.000000 | 0 |
| 956 | 61 | 40.274914 | 12.089916 | 40.700000 | 0 | 0 | 0 | 0.610931 | 12.46303 | 1.790000 | 1 | 9.392344 | 161.000000 | 0 |
| 957 | 60 | 27.000000 | 35.400000 | 38.300000 | 0 | 0 | 0 | 0.200000 | 7.68000 | 5.700000 | 0 | 9.290000 | 256.000000 | 0 |

958 68 30.000000 2.280000 44.400000 0 0 0 0.200000 5.32000 4.430000 0 4.710000 172.000000 0

959 rows × 14 columns

(2)数据处理

X = titanic.iloc[:,:-1]
y = titanic.iloc[:,-1]
X=pd.get_dummies(X,drop_first = True)
X

(3)划分训练集与测试集

from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.2,stratify=None, random_state=0)#划分训练集和测试集

(4)拟合逻辑回归

model = LogisticRegression(C=1e10)
model.fit(X_train, y_train)

model.intercept_ #模型截距
model.coef_ #模型回归系数

输出结果:

复制代码
array([[ 0.03899236,  0.00458312,  0.000863  , -0.10140358, -0.09681747,
         0.74167081,  0.56011254,  0.24636358,  0.0226635 , -0.02681392,
         0.4987412 , -0.01932326,  0.00211805]])

(5)使用逻辑回归测试集进行评价分类准确率

model.score(X_test, y_test)

输出结果:

复制代码
0.6822916666666666

(6)测试集预测所有种类的概率

prob = model.predict_proba(X_test)
prob[:5]

输出结果:

复制代码
array([[0.71336774, 0.28663226],
       [0.34959506, 0.65040494],
       [0.91506198, 0.08493802],
       [0.24008149, 0.75991851],
       [0.55969043, 0.44030957]])

(7)模型预测

pred = model.predict(X_test)
pred[:5]#计算测试集的预测值,展示前五个值

输出结果:

复制代码
array([0, 1, 0, 1, 0], dtype=int64)

(8)计算混淆矩阵

table = pd.crosstab(y_test, pred, rownames=['Actual'], colnames=['Predicted'])
table

输出结果:

| Predicted | 0 | 1 |
| Actual | | |
| 0 | 99 | 22 |

1 39 32

(9)计算基于混淆矩阵诸多评价指标

print(classification_report(y_test, pred, target_names=['yes', 'no']))

输出结果:

复制代码
                precision    recall  f1-score   support

         yes       0.72      0.82      0.76       121
          no       0.59      0.45      0.51        71

    accuracy                           0.68       192
   macro avg       0.65      0.63      0.64       192
weighted avg       0.67      0.68      0.67       192

(10)绘制ROC曲线

from scikitplot.metrics import plot_roc
plot_roc(y_test, prob)
x = np.linspace(0, 1, 100)
plt.plot(x, x, 'k--', linewidth=1)
plt.title('ROC Curve (Test Set)')#画ROC曲线
plt.savefig("E:\工作\硕士\博客\squares1.png",
bbox_inches ="tight",
pad_inches = 1,
transparent = True,
facecolor ="w",
edgecolor ='w',
dpi=300,
orientation ='landscape')

输出结果:

需要数据集的家人们可以去百度网盘(永久有效)获取:

链接:https://pan.baidu.com/s/1E59qYZuGhwlrx6gn4JJZTg?pwd=2138

提取码:2138


更多优质内容持续发布中,请移步主页查看。

点赞+关注,下次不迷路!

相关推荐
!停7 分钟前
C语言单链表
c语言·数据结构·算法
武子康11 分钟前
大数据-210 如何在Scikit-Learn中实现逻辑回归及正则化详解(L1与L2)
大数据·后端·机器学习
jarreyer17 分钟前
数据项目分析标准化流程
开发语言·python·机器学习
闻缺陷则喜何志丹18 分钟前
【回文 字符串】3677 统计二进制回文数字的数目|2223
c++·算法·字符串·力扣·回文
乾元18 分钟前
如何把 CCIE / HCIE 的实验案例改造成 AI 驱动的工程项目——从“实验室能力”到“可交付系统”的完整迁移路径
大数据·运维·网络·人工智能·深度学习·安全·机器学习
QBoson22 分钟前
量子机器学习用于药物发现:系统综述
人工智能·机器学习·量子计算
Tisfy24 分钟前
LeetCode 0085.最大矩形:单调栈
算法·leetcode·题解·单调栈
mit6.82426 分钟前
出入度|bfs|状压dp
算法
hweiyu0026 分钟前
强连通分量算法:Kosaraju算法
算法·深度优先
源代码•宸27 分钟前
Golang语法进阶(定时器)
开发语言·经验分享·后端·算法·golang·timer·ticker