二元分类,机器学习为什么可行?

背景

为什么我们说机器学习一定能从我们数据集中学到东西,有无理论证明?

霍夫丁不等式

为了证明这个问题,于是有了霍夫丁不等式。

对于一个固定的假设 h,只要训练数据足够多(N 大),训练误差大概率接近真实误差。

问题

但这只能保证单个固定假设,而我们训练时会从假设集中选择表现最好的那个!

但是当前表现最好的就一定是最接近f(x)的吗?

好的h 总是相似的,不好的h各有各的不好

对于单个的h,我们无法确定其距离真实的f(x)相差多少,无法评判h的好坏。但是如果对于一群h(后续写作H),我们就能评判其好坏,因为好的h总是相似的,不好的h各有各的不好。

以一个笛卡尔乘积的形式列下来,只要有一个h在Di中犯了错,那么就认为最终的h all是坏的情况。所以我们可以得到:Ph_i <= Ph_all <= |H| * 2e(-2N(期望^2))。

其中:|H|所表达的意义就是所有可能的h的个数

不过:H****不是训练过程中选出来的,而是在训练之前就由模型架构确定的

模型设计 = 设计****H ,模型训练 = H中选****h。VC维理论告诉我们如何根据数据量来设计合适的H,从而保证学习可行。

H****分类无限转有限

进一步推导,以线性分类器为例。

增加一个数据点则可以拿到四类曲线,我们可以归类出来了2^N这个指数级别函数了。分母指数级别递增增长,因此无上界限,所以我们无法确定这个坏事情发生的概率是否会随着N的增加而变小,所以我们要继续推导,能否把2^N****降级

不等式右界降级

但其实我们继续往后推理,会发现其实并不会永远遵循2^N的规律,

往后继续推论我们可以知道这样的h个数是**不会超过N^(k-1)的,至此,我们已经证明了 霍夫丁不等式**式子是可行的了,**随着N****数据集的增多,我们训练出来的模型表现坏的概率就越小**

最后得到式子如下,记住结论即可。

**VC **

对于线性分类器(d维):dVC=d+1

VC维的深刻意义

d是空间维度

上图中,在d+2组之前,存在某种情况可以使得所有的向量都是线性无关的(数学意义就是在整个空间中所有的点都能被d+2组之前的向量所表示),所以加入的d+2组数据,一定是能被目前空间中的数据所表示的,那么就表示这不是新的一类数据(也就无法被h函数所分割,无法产生新的h函数)。

d+1分别代表的含义如下

总结

因此,机器学习可行的充要条件是:

  1. 存在Break Point k(即VC维有限)

  2. 有足够多的数据N,使得指数衰减压倒多项式增长

Appendix

哔哩哔哩王木头

相关推荐
w_t_y_y1 分钟前
模型和算法篇(一)监督学习回归问题(2)树形回归
机器学习
AC赳赳老秦1 小时前
OpenClaw image-processing技能实操:批量抠图、图片尺寸调整,适配办公需求
开发语言·前端·人工智能·python·深度学习·机器学习·openclaw
hqyjzsb2 小时前
深度洞察人性需求!拆解传统心理咨询升级AI智慧辅导师数智工作流
人工智能·深度学习·学习·数据挖掘·aigc·学习方法·业界资讯
Project_Observer2 小时前
为您的项目选择最合适的Zoho Projects自动化巧能
大数据·运维·人工智能·深度学习·机器学习·自动化·编辑器
好运的阿财2 小时前
“锟斤拷”问题——程序中用powershell执行命令出现中文乱码的解决办法
linux·前端·人工智能·机器学习·架构·编辑器·vim
沅_Yuan2 小时前
基于LSSVM-ABKDE的多输入单输出回归预测模型【MATLAB】
人工智能·神经网络·机器学习·matlab·回归预测·lssvm·kde
小陈工2 小时前
Python Web开发入门(十八):跨域问题解决方案——从“为什么我的请求被拦了“到“我让浏览器乖乖听话“
开发语言·python·机器学习·架构·数据挖掘·回归·状态模式
AI科技星2 小时前
全维度相对论推导、光速螺旋时空与北斗 GEO 钟差的统一理论
开发语言·线性代数·算法·机器学习·数学建模
Chef_Chen2 小时前
Agent学习--LLM--推理熵
人工智能·学习·机器学习
kishu_iOS&AI3 小时前
机器学习 —— 线性回归(实例)
人工智能·python·机器学习·线性回归