深入了解核函数:连接机器学习与统计学的桥梁

引言

在机器学习中,支持向量机(SVM)是一种强大的监督学习模型,特别适合处理分类问题。然而,SVM最初被设计用于线性可分的数据集,现实中的数据往往不是线性可分的。为了解决这一问题,我们引入了核函数的概念。核函数通过将数据映射到高维特征空间,使得在新的特征空间中数据可以线性可分,从而提升了模型的表现。

核函数(Kernel Function)是机器学习和统计学中的一个核心概念,尽管其重要性不言而喻,但它的定义和应用往往令人困惑。在多种应用中,核函数的不同形式和解释让初学者感到难以把握。然而,核函数实际上是一个非常美丽且强大的数学工具,可以统一不同机器学习任务中的多种概念和方法。

本文将带你从非参数模型开始,逐步深入讨论核函数的不同类型及其在统计学和机器学习中的应用,旨在为你建立一个能够连接所有环节的直觉。

线性不可分问题与特征空间映射

在许多现实世界的应用中,数据往往不是线性可分的。例如,著名的"异或"问题就是一个典型的线性不可分问题。在二维空间中,找不到一个直线可以将这类数据正确划分。因此,我们需要将这些数据从原始空间映射到一个更高维的特征空间中,使其在新空间中变得线性可分。

假设我们有一个映射函数 ϕ ( x ) \phi(x) ϕ(x),它可以将输入向量 x x x从原始空间映射到一个高维特征空间中。在这个新的特征空间中,我们可以找到一个超平面来正确划分数据。模型的表达式可以表示为:

f ( x ) = w T ϕ ( x ) + b f(x) = w^T\phi(x)+b f(x)=wTϕ(x)+b

其中, w w w和 b b b是模型的参数

在特征空间中,支持向量机的优化问题可以表示为:

其对偶问题则为:

在这个对偶问题中,我们会发现需要计算样本在高维特征空间中的内积 ϕ ( x i ) T ϕ ( x j ) \phi(x_i)^T\phi(x_j) ϕ(xi)Tϕ(xj)。然而,由于特征空间的维度可能非常高甚至是无穷维,直接计算内积是非常困难的。

从非参数模型到核函数

在统计学和机器学习中,模型的选择和构建是一个核心问题。传统的参数模型,例如线性回归,假设数据遵循某种固定形式的分布,模型结构也是预定义的。这些模型通常需要对数据分布的形式作出假设。然而,在实际应用中,数据的分布可能复杂且难以描述,这时,非参数模型便成为一种有效的替代方案。

非参数模型的优势

非参数模型是那些不具有随输入大小而增长的参数的统计模型。请注意,非参数模型并不意味着"零参数模型",而是使用一组固定的参数(也称为超参数),这些参数不会随着输入维度的增加而增加。例如,在普通的线性回归模型中,模型的参数 θ \theta θ决定了超平面的斜率,而超平面的大小则取决于输入 x x x的维数:

y = θ T x + ϵ y=\theta^Tx+\epsilon y=θTx+ϵ

其中, θ \theta θ是参数向量, x x x是输入特征向量, ϵ \epsilon ϵ是误差项。对于固定的 θ \theta θ,模型的复杂度不会随着输入数据的大小而变化。

非参数模型的灵活性使得模型可以更好地适应复杂数据。例如,核密度估计(KDE)和 k-最近邻(k-NN)等方法都是典型的非参数模型。通过这些方法,模型能够捕捉数据的局部结构而不必预设全局形式。

然而,非参数模型在处理高维数据时可能会遇到"维度灾难"的问题。

为了解决维度灾难这一问题,同时保留非参数模型的灵活性,核函数(Kernel Function)应运而生。

核函数的引入

核函数是一种将数据从低维空间映射到高维空间的工具,从而在高维空间中使得数据更加容易被线性分割。具体来说,核函数的作用是计算两个样本在高维特征空间中的内积,而无需显式地进行映射。这种方法极大地减少了计算复杂度,同时保留了模型的灵活性。

核函数 k ( x i , x j ) k(x_i,x_j) k(xi,xj) 是一个定义在输入空间上的函数,能够直接计算样本在特征空间的内积,即:

k ( x i , x j ) = ϕ ( x i ) T ϕ ( x j ) k(x_i,x_j)=\phi(x_i)^T\phi(x_j) k(xi,xj)=ϕ(xi)Tϕ(xj)

有了核函数,我们可以避免显式地进行高维映射,只需要在原始空间中计算核函数即可。因此,对偶问题可以重写为:

最终的分类决策函数为:

核函数的性质与核函数定理

核函数的选择对支持向量机的性能有着至关重要的影响。那么,什么样的函数可以作为核函数呢?

核函数定理给出了核函数的基本性质:令 χ \chi χ为输入空间, k ( ⋅ , ⋅ ) k(·,·) k(⋅,⋅)是定义在 χ × χ \chi \times \chi χ×χ上的对称函数,则 k k k是核函数当且仅当对于任意数据 D = x 1 , x 2 , . . . , x m D=x_1,x_2,...,x_m D=x1,x2,...,xm,其对应的"核矩阵" K K K是半正定的。

核矩阵 K K K的定义为:

上述定理表明,只要一个对称函数所对应的核矩阵是半正定的,它就可以作为核函数使用。

核密度估计(KDE)与核回归

核密度估计(KDE)

核密度估计(Kernel Density Estimation, KDE)是一种非参数方法,用于估计随机变量的概率密度函数。给定一个样本集 { x 1 , x 2 , . . . , x n } \lbrace x_1,x_2,...,x_n\rbrace {x1,x2,...,xn},核密度估计的形式为:

f ^ ( x ) = 1 n h ∑ i = 1 n K ( x − x i h ) \hat f(x) = \frac{1}{nh}\sum_{i=1}^nK(\frac{x-x_i}{h}) f^(x)=nh1i=1∑nK(hx−xi)

其中, K ( ⋅ ) K(⋅) K(⋅)是核函数, h h h是带宽参数(也称为平滑参数),它控制核函数的宽度。带宽 h h h的选择对估计结果影响很大,过大或过小的 h h h都会导致估计不准确。

KDE 的直观意义是通过在每个样本点上放置一个核函数来估计整个数据的概率密度。常用的核函数包括高斯核、拉普拉斯核等。

核回归

核回归(Kernel Regression)是一种非参数回归方法,用于估计输入变量 X X X和输出变量
Y Y Y之间的关系。给定一个输入值 x x x,核回归估计值为:

y ^ ( x ) = ∑ i = 1 n K h ( x , x i ) y i ∑ i = 1 n K h ( x , x i ) \hat y(x)=\frac{\sum_{i=1}^nK_h(x,x_i)y_i}{\sum_{i=1}^nK_h(x,x_i)} y^(x)=∑i=1nKh(x,xi)∑i=1nKh(x,xi)yi

其中, K h ( x , x i ) K_h(x,x_i) Kh(x,xi)是在输入 x x x处使用带宽 h h h的核函数对数据点 x i x_i xi进行加权。

核回归通过对输入空间中的每个点进行加权平均,得到估计值。这种方法的优势在于它无需假设数据的全局结构,只需局部地进行估计,因而具有较高的灵活性。

Mercer 核函数与高维点积

Mercer 核函数

Mercer 核函数理论为核函数的构建提供了理论基础。Mercer 定理指出,一个对称函数 k ( x , z ) k(x,z) k(x,z)是一个合法的核函数,当且仅当对于任意数据集 { x 1 , x 2 , . . . , x m } \lbrace x_1,x_2,...,x_m\rbrace {x1,x2,...,xm},其核矩阵 K K K是半正定的:

即,对任意的非零向量 α ∈ R m \alpha \in R^m α∈Rm,有:

α T K α > = 0 \alpha^TK\alpha>= 0 αTKα>=0

这个定理确保了只要核函数满足 Mercer 定理的条件,就可以被用作支持向量机、核密度估计等算法中的核函数。

高维点积

核函数的一个重要应用是将数据从低维空间映射到高维空间,使得原本线性不可分的问题在高维空间中变得线性可分。高维点积即是在高维空间中计算样本点之间的内积,这一过程通过核函数隐式地进行,无需明确计算映射后的高维向量。

以高斯核为例,其形式为:
k ( x , z ) = e x p ( − ∣ ∣ x − z ∣ ∣ 2 2 σ 2 ) k(x,z)=exp(-\frac{||x-z||^2}{2\sigma^2}) k(x,z)=exp(−2σ2∣∣x−z∣∣2)

其中, σ \sigma σ是带宽参数。通过高斯核,可以将数据映射到一个无限维空间,在该空间中执行线性操作。

常见的核函数类型

在实际应用中,我们可以选择不同类型的核函数来适应不同的数据分布。以下是几种常见的核函数:

  1. 线性核(Linear Kernel)
    线性核是最简单的核函数,对应的是直接在原始空间中的内积运算:
    k ( x , x ′ ) = x T x ′ k(x,x^\prime)=x^Tx^\prime k(x,x′)=xTx′

线性核函数特别适合用于线性可分的数据集,或者当我们对特征进行大量预处理使其接近线性可分时。

其优缺点如下:

  • 优点:模型简单、速度快、可解释性好;
  • 缺点:无法处理线性不可分的数据集。
  1. 多项式核(Polynomial Kernel)
    多项式核通过增加输入样本的维度,使得在高维空间中数据更可能线性可分:

k ( x , x ′ ) = ( γ x T x ′ + ζ ) q k(x,x^\prime)=(\gamma x^Tx^\prime+\zeta)^q k(x,x′)=(γxTx′+ζ)q

其中 ζ \zeta ζ是一个常数, q q q是多项式的阶数。当 q = 1 q=1 q=1时,多项式核退化为线性核。

优缺点:

  • 优点 : 能够处理非线性问题,并可以通过调整阶数 q q q来控制模型的复杂度。
  • 缺点: 数值计算的稳定性较差,尤其在高维空间中需要选择多个超参数。
  1. 高斯核(Gaussian Kernel)或RBF核
    高斯核是最常用的非线性核函数之一,适用于处理非线性可分的数据:

k ( x , x ′ ) = e x p ( − γ ∣ ∣ x − x ′ ∣ ∣ 2 ) k(x,x^\prime)=exp(-\gamma||x-x^\prime||^2) k(x,x′)=exp(−γ∣∣x−x′∣∣2)

其中超参数 γ > 0 \gamma >0 γ>0控制高斯函数的方差, γ \gamma γ取值越大,径向基函数的径向越小,模型越容易过拟合:

当超参数 γ \gamma γ趋于无穷大时,高斯核趋近于:

优缺点:

  • 优点: 高斯核是一种无限维度的核函数,能够有效处理复杂的非线性问题,数值稳定性好,只需调整一个超参数。
  • 缺点: 可解释性较差,计算复杂度较高,容易过拟合。

特征变换:

假设 γ = 1 \gamma=1 γ=1则高斯核的特征变换可通过 Taylor 展开式表示为:

对应的特征变换 χ ( x ) \chi(x) χ(x)为:

  1. 拉普拉斯核 (Laplacian Kernel)
    定义:

KaTeX parse error: Expected group after '^' at position 33: ...xp(-\frac{||x-x^̲^\prime||}{\sig...

特点: 拉普拉斯核与高斯核类似,但它基于欧几里德距离而非平方距离,通常用于对数据点分布更敏感的场景。

  1. Sigmoid 核 (Sigmoid Kernel)

定义:

k ( x , x ′ ) = t a n h ( β x T x ′ + θ ) , β > 0 , θ < 0 k(x,x^\prime) = tanh(\beta x^Tx^\prime+\theta),\beta>0,\theta<0 k(x,x′)=tanh(βxTx′+θ),β>0,θ<0

特点: 该核函数源于神经网络中的激活函数,因此具有一定的生物启发性,适合处理类似逻辑回归的问题。

  1. 核函数的线性组合与直积

核函数的选择

核函数的选择是支持向量机模型中的一个关键步骤。如果选择的核函数不合适,可能会导致模型在特征空间中无法正确划分数据,从而影响最终的分类效果。

在实践中,选择核函数时可以遵循以下经验:

  • 线性核:适用于高维稀疏数据,如文本分类。
  • 多项式核:适用于当特征空间与原始数据存在多项式关系时。
  • 高斯核:适用于大多数非线性问题,尤其是当数据没有明显的线性关系时。
相关推荐
阡之尘埃3 小时前
Python数据分析案例61——信贷风控评分卡模型(A卡)(scorecardpy 全面解析)
人工智能·python·机器学习·数据分析·智能风控·信贷风控
Java Fans7 小时前
深入了解逻辑回归:机器学习中的经典算法
机器学习
慕卿扬8 小时前
基于python的机器学习(二)—— 使用Scikit-learn库
笔记·python·学习·机器学习·scikit-learn
夏天里的肥宅水9 小时前
机器学习3_支持向量机_线性不可分——MOOC
人工智能·机器学习·支持向量机
Troc_wangpeng10 小时前
机器学习的转型
人工智能·机器学习
小言从不摸鱼10 小时前
【NLP自然语言处理】深入解析Encoder与Decoder模块:结构、作用与深度学习应用
人工智能·深度学习·神经网络·机器学习·自然语言处理·transformer·1024程序员节
小码贾11 小时前
评估 机器学习 回归模型 的性能和准确度
人工智能·机器学习·回归·scikit-learn·性能评估
HyperAI超神经13 小时前
突破1200°C高温性能极限!北京科技大学用机器学习合成24种耐火高熵合金,室温延展性极佳
人工智能·深度学习·机器学习·数据集·ai4s·材料学·合金
阿里-于怀14 小时前
5分钟科普:AI网关是什么?应用场景是什么?有没有开源的选择?
机器学习
15 小时前
开源竞争-大数据项目期末考核
大数据·人工智能·算法·机器学习