机器学习的数学基础:线性模型

线性模型

线性模型的基本形式为:

f ( x ) = ω T x + b f\left(\boldsymbol{x}\right)=\boldsymbol{\omega}^\text{T}\boldsymbol{x}+b f(x)=ωTx+b

回归问题

利用最小二乘法,得到 ω \boldsymbol{\omega} ω和 b b b的参数估计$

\boldsymbol{\hat{\omega}}=\left(\boldsymbol{\omega};b\right)$:

ω ^ ∗ = arg min ⁡ ω ^ ( y − X ω ^ ) T ( y − X ω ^ ) \boldsymbol{\hat{\omega}}^*=\underset{\boldsymbol{\hat{\omega}}}{\text{arg}\min}\left(\boldsymbol{y-X\hat{\omega}}\right)^{\text{T}}\left(\boldsymbol{y-X\hat{\omega}}\right) ω^∗=ω^argmin(y−Xω^)T(y−Xω^)

其中:

X = ( x 1 T 1 x 2 T 1 ⋮ ⋮ x m T 1 ) \boldsymbol{X}=\begin{pmatrix} \boldsymbol{x_1^\text{T}} & 1\\ \boldsymbol{x_2^\text{T}} & 1\\ \vdots & \vdots\\ \boldsymbol{x_m^\text{T}}&1 \end{pmatrix} X= x1Tx2T⋮xmT11⋮1

由于在现实任务中 X T X \boldsymbol{X}^{\text{T}}\boldsymbol{X} XTX不一定为正定矩阵或者满秩矩阵,导致参数估计的不唯一,所以有时候需要引入正则项进行选取解。

广义线性模型

对于单调可微函数 g g g,令:

y = g − 1 ( ω T x + b ) y=g^{-1}(\boldsymbol{\omega}^\text{T}\boldsymbol{x}+b) y=g−1(ωTx+b)

称为广义线性模型

二分类

对数几率回归与极大似然估计

对于二分类问题,其目标为: y ∈ { 0 , 1 } y\in\{0,1\} y∈{0,1},由于理想的单位跃阶函数不连续,这里引入对数几率函数(logistic function):

y = 1 1 + e − z y=\frac{1}{1+e^{-z}} y=1+e−z1

带入广义线性模型:

ln ⁡ y 1 − y = ω T x + b \ln\frac{y}{1-y}=\boldsymbol{\omega}^\text{T}\boldsymbol{x}+b ln1−yy=ωTx+b

其中,称 y 1 − y \frac{y}{1-y} 1−yy为"几率"。

对参数估计,使用极大似然估计:

L = max ⁡ ∑ i = 1 m ln ⁡ p ( y i ∣ x i ; ω , b ) \mathcal{L}=\max \sum_{i=1}^{m}\ln p\left(y_i|\boldsymbol{x}_i;\boldsymbol{\omega},b\right) L=maxi=1∑mlnp(yi∣xi;ω,b)

其中,

p ( 1 ∣ x i ; ω , b ) = ω T x + b 1 + e − ( ω T x + b ) p\left(1|\boldsymbol{x}_i;\boldsymbol{\omega},b\right)=\frac{\boldsymbol{\omega}^\text{T}\boldsymbol{x}+b}{1+e^{-(\boldsymbol{\omega}^\text{T}\boldsymbol{x}+b)}} p(1∣xi;ω,b)=1+e−(ωTx+b)ωTx+b

该式可以由经典的凸优化算法求得。

LDA

线性判别分析(Linear Discriminant Analysis)是一个朴素的分类方法:

通过投影将高维数据映射到低维空间,使得同类样本的投影尽可能紧凑、不同类样本的投影尽可能分离,从而实现分类。

给定二分类数据集 D = { ( x i , y i ) } i = 1 m D = \{(\boldsymbol{x}i, y_i)\}{i=1}^m D={(xi,yi)}i=1m, y i ∈ { 0 , 1 } y_i \in \{0,1\} yi∈{0,1},定义:

  • X i X_i Xi:第 i ∈ { 0 , 1 } i \in \{0,1\} i∈{0,1} 类样本的集合
  • μ i \boldsymbol{\mu}_i μi:第 i i i类样本的均值向量
  • Σ i \boldsymbol{\Sigma}_i Σi:第 i i i类样本的协方差矩阵

若将数据投影到直线 w \boldsymbol{w} w 上,两类样本中心的投影为 \\boldsymbol{w}^\\mathrm{T}\\boldsymbol{\\mu}_0\\boldsymbol{w}^\\mathrm{T}\\boldsymbol{\\mu}_1 ,协方差投影为 ,协方差投影为 ,协方差投影为\\boldsymbol{w}^\\mathrm{T}\\boldsymbol{\\Sigma}_0\\boldsymbol{w}\\boldsymbol{w}^\\mathrm{T}\\boldsymbol{\\Sigma}_1\\boldsymbol{w}(均为实数,因投影到一维空间 )。

得到构造的最优化函数:

max ⁡ J = max ⁡ ∥ w T μ 0 − w T μ 1 ∥ 2 2 w T Σ 0 w + w T Σ 1 w \max \mathcal{J}= \max \frac{\|\boldsymbol{w}^\mathrm{T}\boldsymbol{\mu}_0 - \boldsymbol{w}^\mathrm{T}\boldsymbol{\mu}_1\|_2^2}{\boldsymbol{w}^\mathrm{T}\boldsymbol{\Sigma}_0\boldsymbol{w} + \boldsymbol{w}^\mathrm{T}\boldsymbol{\Sigma}_1\boldsymbol{w}} maxJ=maxwTΣ0w+wTΣ1w∥wTμ0−wTμ1∥22

为了简化表达,引入散度矩阵

  • 类内散度矩阵 ( S w \mathbf{S}_w Sw):

    整合两类协方差信息,反映同类样本的离散程度:
    S w = Σ 0 + Σ 1 = ∑ x ∈ X 0 ( x − μ 0 ) ( x − μ 0 ) T + ∑ x ∈ X 1 ( x − μ 1 ) ( x − μ 1 ) T \mathbf{S}_w = \boldsymbol{\Sigma}_0 + \boldsymbol{\Sigma}1 = \sum{\boldsymbol{x} \in X_0} (\boldsymbol{x} - \boldsymbol{\mu}_0)(\boldsymbol{x} - \boldsymbol{\mu}0)^\mathrm{T} + \sum{\boldsymbol{x} \in X_1} (\boldsymbol{x} - \boldsymbol{\mu}_1)(\boldsymbol{x} - \boldsymbol{\mu}_1)^\mathrm{T} Sw=Σ0+Σ1=x∈X0∑(x−μ0)(x−μ0)T+x∈X1∑(x−μ1)(x−μ1)T

  • 类间散度矩阵 ( S b \mathbf{S}_b Sb):

    反映两类中心的离散程度,仅与均值向量有关:
    S b = ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T \mathbf{S}_b = (\boldsymbol{\mu}_0 - \boldsymbol{\mu}_1)(\boldsymbol{\mu}_0 - \boldsymbol{\mu}_1)^\mathrm{T} Sb=(μ0−μ1)(μ0−μ1)T

代入目标函数后, J \mathcal{J} J 可重写为"广义瑞利商"(generalized Rayleigh quotient):

J = w T S b w w T S w w \mathcal{J}=\frac{\boldsymbol{w}^\mathrm{T}\mathbf{S}_b\boldsymbol{w}}{\boldsymbol{w}^\mathrm{T}\mathbf{S}_w\boldsymbol{w}} J=wTSwwwTSbw

多分类问题

多分类问题与二分类类似,常见的处理方法是分组拆解为多个二分类问题。

"拆解法"

包括:一对一,一对多,多对多

LDA

KaTeX parse error: Got function '\boldsymbol' with no arguments as subscript at position 68: ...\boldsymbol{S}_\̲b̲o̲l̲d̲s̲y̲m̲b̲o̲l̲{b}\boldsymbol{...

相关推荐
大佬,救命!!!2 小时前
更换适配python版本直接进行机器学习深度学习等相关环境配置(非仿真环境)
人工智能·python·深度学习·机器学习·学习笔记·详细配置
Ayanami_Reii3 小时前
基础数学算法-开关问题
数学·算法·高斯消元
yLDeveloper4 小时前
致深度学习小白:一文理解拟合问题与经典解决方案
机器学习·dive into deep learning
6***x54516 小时前
C在机器学习中的ML.NET应用
人工智能·机器学习
甄心爱学习17 小时前
数据挖掘-聚类方法
人工智能·算法·机器学习
长桥夜波18 小时前
机器学习日报21
人工智能·机器学习
Jay200211120 小时前
【机器学习】10 正则化 - 减小过拟合
人工智能·机器学习
rgb2gray20 小时前
增强城市数据分析:多密度区域的自适应分区框架
大数据·python·机器学习·语言模型·数据挖掘·数据分析·llm
不去幼儿园1 天前
【启发式算法】灰狼优化算法(Grey Wolf Optimizer, GWO)详细介绍(Python)
人工智能·python·算法·机器学习·启发式算法
Hcoco_me1 天前
大模型面试题5:矩阵(M*M)特征值分解的步骤
算法·机器学习·矩阵