python基础(逻辑回归例题)

一、参数选择

在逻辑回归建模中,"过拟合"是绕不开的坑------当模型在训练数据上表现完美,却在新数据上一塌糊涂时,大概率是模型复杂度超出了数据所能支撑的范围。而惩罚因子(也叫正则化参数),正是我们解决过拟合、平衡模型拟合度与泛化能力的核心工具。

1.通过LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)函数C参数的选择最优惩罚因子。通过K折交叉验证cross_val_score(lr,x_train_w,y_train_w,cv=8,scoring='recall')函数来实现。

python 复制代码
scores=[]  #不同参数下的验证集评分
c_range=[0.01,0.1,1,10,100]
for i in c_range:
    lr=LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)
    score=cross_val_score(lr,x_train_w,y_train_w,cv=8,scoring='recall')
    score_m=sum(score)/len(score)
    scores.append(score_m)
    print(score_m)

best_c=c_range[np.argmax(scores)]
print("最优惩罚因子",best_c)


lr=LogisticRegression(C=best_c,penalty='l2',solver='lbfgs',max_iter=1000)
lr.fit(x_train_w,y_train_w)

from sklearn import metrics
train_predict=lr.predict(x_train_w)
print(metrics.classification_report(y_train_w,train_predict))#获得混淆矩阵的准确值,召回值。
cm_plot(y_train_w,train_predict).show()


test_predict=lr.predict(x_test_w)
print(metrics.classification_report(y_test_w,test_predict,digits=6))#获得混淆矩阵的准确值,召回值。
cm_plot(y_test_w,test_predict).show()

二、下采样

下采样的核心是"削减多数类样本",将不同类别的数量平衡一下,减少多的类别的数量

在案例中使用代码:

x_train_w=train_data[train_data['Class']==1]

y_train_w=train_data[train_data['Class']==0]

y_train_w=y_train_w.sample(len(x_train_w))

使用sample函数从y_train_w中抽取x_train_w的数量。

python 复制代码
data=pd.read_csv("creditcard.csv")

scaler=StandardScaler()
data['Amount']=scaler.fit_transform(data[['Amount']])
data=data.drop(['Time'],axis=1)#axis=1,表示删除列

x=data.drop('Class',axis=1)
y=data.Class

x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=0)

train_data=x_train
train_data['Class']=y_train

x_train_w=train_data[train_data['Class']==1]
y_train_w=train_data[train_data['Class']==0]
y_train_w=y_train_w.sample(len(x_train_w))

data_c=pd.concat([x_train_w,y_train_w])

x_train_w_1=data_c.drop('Class',axis=1)
y_train_w_1=data_c.Class


scores=[]
c_range=[0.01,0.1,1,10,100]
for i in c_range:
    lr=LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)
    score=cross_val_score(lr,x_train_w_1,y_train_w_1,cv=10,scoring='recall')
    score_m=sum(score)/len(score)
    scores.append(score_m)
    print(score_m)

best_c=c_range[np.argmax(scores)]
print("最优因子:",best_c)

lr=LogisticRegression(C=best_c,penalty='l2',solver='lbfgs',max_iter=1000)
lr.fit(x_train_w_1,y_train_w_1)

三、过采样

上采样的核心是"扩充少数类样本"

我们可以使用SMOTE(合成少数类过采样技术)------在少数类样本的特征空间中,找到每个样本的k个近邻,通过插值生成新的少数类样本(如样本A和样本B的近邻,新样本=A+rand(0,1)*(B-A))

python 复制代码
from imblearn.over_sampling import SMOTE
oversampler=SMOTE(random_state=100)#保证数据拟合效果,随机种子
os_x_train,os_y_train=oversampler.fit_resample(x_train,y_train)#人工拟合数据
相关推荐
Csvn18 小时前
🌟 LangChain 30 天保姆级教程 · Day 13|OutputParser 进阶!让 AI 输出自动转为结构化对象,并支持自动重试!
python·langchain
Wenweno0o18 小时前
0基础Go语言Eino框架智能体实战-chatModel
开发语言·后端·golang
chenjingming66618 小时前
jmeter线程组设置以及串行和并行设置
java·开发语言·jmeter
cch891819 小时前
Python主流框架全解析
开发语言·python
不爱吃炸鸡柳19 小时前
C++ STL list 超详细解析:从接口使用到模拟实现
开发语言·c++·list
十五年专注C++开发19 小时前
RTTR: 一款MIT 协议开源的 C++ 运行时反射库
开发语言·c++·反射
Momentary_SixthSense19 小时前
设计模式之工厂模式
java·开发语言·设计模式
sg_knight19 小时前
设计模式实战:状态模式(State)
python·ui·设计模式·状态模式·state
好运的阿财19 小时前
process 工具与子agent管理机制详解
网络·人工智能·python·程序人生·ai编程
‎ദ്ദിᵔ.˛.ᵔ₎19 小时前
STL 栈 队列
开发语言·c++