很多线性分类模型只使用与二分类问题,将二分类算法推广到多分类算法的一种常见方法是"一对其余"方法。在"一对其余"方法中,对每个类别都学习一个二分类模型,将这个类别和其他类别尽量区分,这样就生成了与类别数相同的二分类模型数。在测试点上运行所有分类器进行预测,在对应类别上分数最高的分类器"胜出",将这个类别标签范围作为预测结果。
多分类Logistics回归背后的数学与"一对其余"方法稍有不同,但也是对每个类别都有一个系数向量和一个截距,也使用了同样的预测方法。
以一个三分类的二维数据集为例:
python
from sklearn.datasets import make_blobs
import matplotlib.pyplot as plt
import mglearn
from sklearn.svm import LinearSVC
import numpy as np
plt.rcParams['font.sans-serif']=['SimHei']
X,y=make_blobs(random_state=42)
mglearn.discrete_scatter(X[:,0],X[:,1],y)
plt.ylim(-10,15)
plt.xlim(-10,10)
plt.xlabel('0')
plt.ylabel('1')
plt.legend(['类别0','类别1','类别2'],loc=(1.01,0.3))
plt.show()
在这个数据集上训练LinearSVC分类器:
python
line_svc=LinearSVC().fit(X,y)
print('coef_形状:{}'.format(line_svc.coef_.shape))
print('intercept_形状:{}'.format(line_svc.intercept_.shape))
可以看到coef_的形状是(3,2),说明coef_每行包括三个分类之一的系数向量,每列包含某个特征对应的系数值。
对3个二类分类器给出可视化:
训练集中所有属于类别0的点都在与类别0对应的直线上方,说明他们位于这个二类分类器属于类别0的那一侧。没有直接和某类点在同一个区域的点,属于"其余"部分。"其余"部分,属于分类方程结果最大的那个类别,即最近的的那条线对应的类别: