机器学习第十二章-计算学习理论

目录

12.1基础知识

[12.2 PAC学习](#12.2 PAC学习)

12.3有限假设空间

12.3.1可分情形

12.3.2不可分情形

12.4VC维

[12.5 Rademacher复杂度](#12.5 Rademacher复杂度)


12.1基础知识

计算学习理论研究的是关于通过"计算"来进行"学习"的理论,即关于机器学习的理论基础,其目的是分析学习任务的困难本质,为学习算法提供理论保证,并根据分析结果指导算法设计。
给定样例集 = {(X1 , Y2) , (X2,Y2 ),..., (Xm , Ym)} ,
令h为X到Y 的一个映射,其泛化误差为:

h在D上的经验误差为:

后面部分将研究经验误差与泛化误差之间的逼近程度会用到几个常用不等式:
1.Jensen 不等式:对任意凸函数 f(x) ,有:

2.HoefIding 不等式 : 若 为m个独立随机变量,且满足 ,则对任意 ,有:

3.McDiarmid 不等式 : 若 为m个独立随机变量,且对任意1<i<m,函数f 满足:

12.2 PAC学习

计算学习理论中最基本的是概率近似正确 ( 简称 PAC) 学习理论 。
PAC 辨识 :对 ,所有 和分布D,若存在学习算法,其输出假设 满足:

则称学习算法 能从假设空间中 PAC 辨识概念类 C.
PAC 可学习 : 令m表示从分布D中独立同分布采样得到的样例数目,,对所有分布D, 若存在学习算法£和多项式函数poly,使得对任何m>poly.
PAC 学习算法 : 若学习算法使概念类 C为PAC 可学习的,且 的运行时间也多项式函数 poly ,则称概念类 C 是高效 PAC 可学习 的,称为概念类C的 PAC 学习算法.
样本复杂度 : 满足 PAC 学习算法所需的 m> poly 中最小的m,称为学习算法 的样本复杂度.

12.3有限假设空间

12.3.1可分情形

可分情形意味着目标概念c属于假设空间H,即 。对 PAC 学习来说,只要训练集D 的规模能使学习算法以概率 找到目标假设的近似即可.

我们先估计泛化误差大于 但在训练集上仍表现完美的假设出现的概率. 假定 h的泛化误差大于 ,对分布 D上随机来样而得的任何样例 (x y)有:

由于D包含 m个从 D 独立同分布采样而得的样例,因此,h与D 表现一 致的概率为:

12.3.2不可分情形

引理:若训练集D包含m个从分布D上独立同分布采样而得的样例,,则对任意 ,有:

推论 :若训练集D 包含 m个从分布 D上独立同分布来样而得的样例, ,则对任意 ,以至少 的概率成立:

定理 :若H为有限假设空间, ,则对任意 ,有:

12.4VC维

现实学习任务所面临的通常是无限假设空间,欲对此种情形的可学习性进行研究,需度量假设空间的复杂度.最常见的办法是考虑假设空间的 "VC维"。
1. 增长函数
增长函数,也称为VC维增长函数,描述了在给定假设空间下,能够被假设空间所"分割"或"覆盖"的训练样本的最大数量。具体来说,它衡量的是假设空间中能够对样本集进行不同标签分配的能力。增长函数的定义如下:对于一个假设空间 H )和一个样本集 S (大小为 m ),增长函数 ( ) 表示假设空间 H 能够对样本集 S 进行的不同标签分配的最大数量。

2. 打分
打分是一个与增长函数紧密相关的概念。它描述了一个假设空间能否对某个样本集进行所有可能的标签分配。具体来说:一个假设空间 (H )能打分一个样本集 S (大小为 m,如果 H 中的假设可以对 S 中的每一种可能的标签分配进行匹配。

3. 打散
打散(或称为分裂)是一个与打分相关的概念,描述了假设空间能否在所有可能的标签分配下对样本集进行准确的分类。具体来说:假设空间 H 能打散一个样本集S (大小为 m )如果H能对 S 中的每一种标签分配进行正确的分类。换句话说,如果假设空间 H 能生成所有可能的标签分配。

4. VC维
VC维是衡量一个假设空间复杂度的指标,它反映了假设空间能够打散的最大样本集的大小。具体来说:VC维是一个假设空间 H 可以打散的最大样本集的大小。即,如果假设空间 H 能打散大小为 d 的样本集,但不能打散大小为 d+1 的样本集,那么 H 的VC维就是 d。

增长函数 衡量假设空间对样本集进行的标签分配的能力。
打分 描述假设空间是否能够覆盖所有可能的标签分配。
打散 具体指假设空间对样本集进行所有可能标签分配的能力。
VC维是衡量假设空间复杂度的关键指标,反映了最大打散能力。

12.5 Rademacher复杂度

Rademacher 复杂度 是另一种刻画假设空间复 杂度的途径,与 vc 维不同的是,它在一定程度上考虑了数据分布.

给定训练集 ={(X1**,Y2),(X2,Y2),..., (Xm*,*Ym)} 假设h 的经验误差为:


经验误差最小的假设是:

是Rademacher 随机变量.
函数空间 F 关于 Z 的经验 Rademacher 复杂度:

函数空间 F 关于Z 上分布D的 Rademacher 复杂度:

相关推荐
双翌视觉13 分钟前
机器视觉光源选型解析:照亮工业检测的“智慧之眼”
人工智能·机器视觉·视觉对位·视觉软件
Echo``21 分钟前
1:OpenCV—图像基础
c++·图像处理·人工智能·opencv·算法·计算机视觉·视觉检测
FL1717131423 分钟前
MATLAB机器人系统工具箱中的loadrobot和importrobot
人工智能·matlab·机器人
夏天是冰红茶40 分钟前
图像处理:预览并绘制图像细节
图像处理·人工智能·opencv
点云SLAM1 小时前
Python中in和is关键字详解和使用
开发语言·人工智能·python·python学习·in和is关键字·python中for循环
后知后觉1 小时前
深度学习-最简单的Demo-直接运行
人工智能·深度学习
说私域1 小时前
基于开源链动2+1模式AI智能名片S2B2C商城小程序的低集中度市场运营策略研究
人工智能·小程序·开源·零售
COOCC11 小时前
激活函数全解析:定义、分类与 17 种常用函数详解
人工智能·深度学习·神经网络·算法·机器学习·计算机视觉·自然语言处理
武子康1 小时前
大语言模型 09 - 从0开始训练GPT 0.25B参数量 补充知识之数据集 Pretrain SFT RLHF
人工智能·gpt·ai·语言模型·自然语言处理
davysiao1 小时前
AG-UI 协议:重构多模态交互,开启智能应用新纪元
人工智能