线性判别分析的多分类情况

线性判别分析的多分类情况

情况一

若存在超平面 d i ( x ) = w i x d_i(x)=w_ix di(x)=wix可以将属于 w i w_i wi与不属于 w i w_i wi范围的划开
d i ( x ) = w i T x = { > 0 , i f x ∈ w i < 0 , i f x ∉ w i (1) d_i(x)=w_i^Tx= \begin{cases}> 0 ,\quad if \ x \in w_i\\ < 0, \quad if \ x \notin w_i \end{cases} \tag{1} di(x)=wiTx={>0,if x∈wi<0,if x∈/wi(1)

即通过一个判别函数把整个空间划分成一个 w i w_i wi与不属于 w i w_i wi的范围。就可以将一个M分类问题转化为M个多分类问题。

但是当存在多个 d i ( x ) > 0 d_i(x)>0 di(x)>0的区域或者全部的 d i ( x ) < 0 d_i(x)<0 di(x)<0时,则分类失败,此类空间被称为不确定区域。

情况二

若存在超平面 d i j ( x ) = w i j x d_{ij}(x)=w_{ij}x dij(x)=wijx可以将属于 w i w_i wi与属于 w j w_j wj的范围划开
d i j ( x ) = w i j x = { > 0 , x ∈ w i < 0 , x ∈ w j ∀ i ≠ j d_{ij}(x)=w_{ij}x= \begin{cases}>0 \quad,\quad x\in w_i\\ <0 \quad,\quad x\in w_j \end{cases} \quad \forall i \not=j dij(x)=wijx={>0,x∈wi<0,x∈wj∀i=j

其中满足 d i j ( x ) = − d j i ( x ) d_{ij}(x)=-d_{ji}(x) dij(x)=−dji(x)。

则可以将一个M分类问题转化为 n ( n − 1 ) 2 \frac{n(n-1)}{2} 2n(n−1)个二分类问题。

对所有的 d i j ( x ) d_{ij}(x) dij(x)而言,若 ∀ i ≠ j d i j > 0 \forall i \not=j d_{ij}>0 ∀i=jdij>0,则被称为不确定区域。

情况三

对于没有不确定区域的情况二,

可以将情况二分解为
d i j = d i ( x ) − d j ( x ) = ( w i − w j ) T x d k ( x ) = w k T x , k = 1 , 2 , 3 , . . . , M d_{ij}=d_i(x)-d_j(x)=(w_i-w_j)^Tx\\ d_k(x)=w_k^Tx\quad,\quad k=1,2,3,...,M dij=di(x)−dj(x)=(wi−wj)Txdk(x)=wkTx,k=1,2,3,...,M

若 ∀ i ≠ j , d i ( x ) > d j ( x ) \forall i \not=j,d_i(x)>d_j(x) ∀i=j,di(x)>dj(x),则 x ∈ w i x\in w_i x∈wi。

若 d k ( x ) = m a x { d k ( x ) , k = 1 , 2 , 3 , . . . M } d_k(x)=max\{d_k(x),k=1,2,3,...M\} dk(x)=max{dk(x),k=1,2,3,...M},则 x ∈ w i x \in w_i x∈wi。

即可以把一个M分类问题转化为M-1个多分类问题。

相关推荐
THMAIL24 分钟前
深度学习从入门到精通 - 生成对抗网络(GAN)实战:创造逼真图像的魔法艺术
人工智能·python·深度学习·神经网络·机器学习·生成对抗网络·cnn
无风听海26 分钟前
神经网络之深入理解偏置
人工智能·神经网络·机器学习·偏置
非门由也3 小时前
《sklearn机器学习——回归指标1》
机器学习·回归·sklearn
拓端研究室4 小时前
Python用PSO优化SVM与RBFN在自动驾驶系统仿真、手写数字分类应用研究
人工智能·机器学习
小白狮ww5 小时前
RStudio 教程:以抑郁量表测评数据分析为例
人工智能·算法·机器学习
空白到白9 小时前
决策树-面试题
算法·决策树·机器学习
java1234_小锋9 小时前
Scikit-learn Python机器学习 - 特征预处理 - 归一化 (Normalization):MinMaxScaler
python·机器学习·scikit-learn
西猫雷婶9 小时前
scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式
深度学习·神经网络·学习·机器学习·线性回归·scikit-learn·概率论
nju_spy10 小时前
李沐深度学习论文精读(二)Transformer + GAN
人工智能·深度学习·机器学习·transformer·gan·注意力机制·南京大学
空白到白11 小时前
机器学习-集成学习
人工智能·机器学习·集成学习