【机器学习】四、计算学习理论

1 基础知识

计算学习理论(computational learning theory):关于通过"计算"来进行"学习"的理论,即关于机器学习的理论基础,其目的是分析学习任务的困难本质,为学习算法体统理论保证,并根据结果指导算法设计。

对于二分类问题,给定样本集

假设所有样本服从一个隐含未知的分布D DD,所有样本均独立同分布(independent and identically distributed)。

令h为样本到{ − 1 , + 1 } 上的一个映射,其泛化误差为

h在D 的经验误差为

由于D是D的独立同分布采样,因此h hh的经验误差的期望等于其泛化误差。 在上下文明确时,我们将E ( h ; D ) 和E ^ ( h ; D ) 分别简记为E ( h )和E ^ ( h ) 。 令ϵ为E ( h ) 的上限,即E ( h ) ≤ ϵ E(h);我们通常用ϵ表示预先设定的学得模型所应满足的误差要求,亦称"误差参数"。

我们将研究经验误差和泛化误差之间的逼近程度;若h在数据集上的经验误差为0,则称h与D一致,否则称其不一致。对于任意两个映射h 1 , h 2 ∈ X → Y h_1,h_2,用不合(disagreement)来度量他们之间的差别:

d ( h 1 , h 2 ) = P x ∼ D ( h 1 ( x ) ≠ h 2 ( x ) )

我们将会用到几个常见的不等式:

Jensen不等式:对任意凸函数,有

Hoeffding不等式:若x 1 , x 2 , ... , x m

为m 个独立随机变量,且满足0 ≤ x i ≤ 1,对任意ϵ > 0,有

McDiarmid不等式:

2 PAC学习

概率近似正确理论(Probably Approximately Correct,PAC):

首先介绍两个概念:

C:概念类。表示从样本空间到标记空间的映射,对任意样例,都能使得c ( x ) = y 。

H :假设类。学习算法会把认为可能的目标概念集中起来构成H。

若c ∈ H ,则说明假设能将所有示例按真实标记一致的方式完全分开,称为该问题对学习算法而言是"可分的";否则,称为"不可分的"

对于训练集,我们希望学习算法学习到的模型所对应的假设h hh尽可能接近目标概念c。我们是希望以比较大的把握学得比较好的模型,也就是说,以较大的概率学得误差满足预设上限的模型,这就是"概率近似正确"的含义。形式化地说,令δ 表示置信度,可定义:

PAC辨识:对0 ≤ ϵ , δ < 1 ,所有的c ∈ C 和分布D ,若存在学习算法,其输出假设h ∈ H 满足:

3 有限假设空间

3.1 可分情形

3.2 不可分情形

4 VC维

5 Rademacher复杂度

6 稳定性

相关推荐
说私域8 分钟前
基于开源AI智能客服、AI智能名片与S2B2C商城小程序的餐饮行业私域流量运营策略研究
人工智能·小程序·流量运营
zzywxc78710 分钟前
PyTorch分布式训练深度指南
人工智能·pytorch·分布式·深度学习·wpf·技术栈深潜计划
codelancera12 分钟前
Pytorch-04 搭建神经网络架构工作流
人工智能·pytorch·神经网络
Nan_Shu_61413 分钟前
学习:入门uniapp Vue3组合式API版本(17)
前端·vue.js·学习·uni-app
DeniuHe16 分钟前
Pytorch实现一个简单的贝叶斯卷积神经网络模型
pytorch·深度学习·机器学习
AKAMAI16 分钟前
为流媒体时代而生的云服务:Akamai 推出 Accelerated Compute 加速计算服务
人工智能·云计算
白熊18817 分钟前
【大模型LLM】大模型训练加速 - 数据并行(Data Parallelism, DP)原理详解
人工智能·大模型·llm
许泽宇的技术分享19 分钟前
「一键召唤 007」:开源多智能体 JoyAgent-JDGenie 如何让你的 AI 产品从 Demo 到 真香 只差 Ctrl+C / Ctrl+V?
c语言·人工智能·开源
FL162386312938 分钟前
使用yolo11训练饮料瓶盖缺陷检测质量检测数据集VOC+YOLO格式1432张5类别步骤和流程
深度学习·yolo·机器学习
bin915343 分钟前
「源力觉醒 创作者计划」_文心大模型4.5系列开源模型, 从一行代码到一个生态:聊聊开源战略那些事儿,顺便扯扯文心大模型 4.5 的使用心得
人工智能·开源·文心一言·文心大模型·4.5系列开源模型