Fisher准则例题——给定类内散度矩阵和类样本均值

设有两类样本,两类样本的类内散度矩阵分别为

S 1 = ( 1 1 / 2 1 / 2 1 ) , S 2 = ( 1 − 1 / 2 − 1 / 2 1 ) S_1 = \begin{pmatrix} 1 & 1/2 \\ 1/2 & 1 \end{pmatrix}, \quad S_2 = \begin{pmatrix} 1 & -1/2 \\ -1/2 & 1 \end{pmatrix} S1=(11/21/21),S2=(1−1/2−1/21)

各类样本均值分别为

μ 1 = ( 2 , 0 ) ⊤ 和 μ 2 = ( 2 , 2 ) ⊤ \mu_1 = (2, 0)^\top \text{ 和 } \mu_2 = (2, 2)^\top μ1=(2,0)⊤ 和 μ2=(2,2)⊤

利用 Fisher 准则求其决策面方程(假定分类阈值点为均值),并求新样本 ( 1 , 1 ) ⊤ (1, 1)^\top (1,1)⊤ 属于哪类?


解:

S w = S 1 + S 2 = ( 2 0 0 2 ) S_{\bm w} = S_1 + S_2 = \begin{pmatrix} 2 & 0 \\ 0 & 2 \end{pmatrix} Sw=S1+S2=(2002)

S w − 1 = ( 1 / 2 0 0 1 / 2 ) S_{\bm w}^{-1} = \begin{pmatrix} 1/2 & 0 \\ 0 & 1/2 \end{pmatrix} Sw−1=(1/2001/2)

w = S w − 1 ( μ 1 − μ 2 ) = ( 0 , − 1 ) ⊤ {\bm w} = S_{\bm w}^{-1} (\mu_1 - \mu_2) = (0, -1)^\top w=Sw−1(μ1−μ2)=(0,−1)⊤

y 0 ∗ = w ⊤ μ 1 + μ 2 2 = ( 0 , − 1 ) ( 2 , 1 ) ⊤ = − 1 y_0^* = {\bm w}^\top \frac{\mu_1 + \mu_2}{2} = (0, -1)(2, 1)^\top = -1 y0∗=w⊤2μ1+μ2=(0,−1)(2,1)⊤=−1

w ⊤ ( 1 , 1 ) ⊤ = − 1 = y 0 ∗ {\bm w}^\top (1, 1)^\top = -1 = y_0^* w⊤(1,1)⊤=−1=y0∗

相关推荐
AI大模型测试6 小时前
大龄程序员想转行到AI大模型,好转吗?
人工智能·深度学习·机器学习·ai·语言模型·职场和发展·大模型
金融小师妹7 小时前
基于LSTM-GARCH-EVT混合模型的贵金属极端波动解析:黄金白银双双反弹的逻辑验证
大数据·人工智能·深度学习·机器学习
LucDelton10 小时前
模型微调思路
人工智能·深度学习·机器学习
Fleshy数模10 小时前
从一条直线开始:线性回归的底层逻辑与实战
人工智能·机器学习·概率论
流㶡11 小时前
逻辑回归实战:从原理到不平衡数据优化(含欠拟合/过拟合诊断与召回率提升)
算法·机器学习·逻辑回归
lrh12280012 小时前
详解决策树算法:分类任务核心原理、形成流程与剪枝优化
算法·决策树·机器学习
冰西瓜60012 小时前
从项目入手机器学习(五)—— 机器学习尝试
人工智能·深度学习·机器学习
Coding茶水间12 小时前
基于深度学习的狗品种检测系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)
开发语言·人工智能·深度学习·yolo·目标检测·机器学习
Fleshy数模12 小时前
从欠拟合到正则化:用逻辑回归破解信用卡失信检测的召回率困境
算法·机器学习·逻辑回归
jackywine613 小时前
零样本学习(Zero-Shot Learning)和少样本学习(Few-Shot Learning)有何区别?AI 是怎么“猜“出来的
人工智能·机器学习