多模态动态融合模型Predictive Dynamic Fusion论文阅读与代码分析3-部分数学理论基础

部分数学理论基础

1、凸函数性质

在区间[x,y]上的变量可以表示成xt+y(1-t),t越大越靠近x,很好理解。

那么这个图就很好理解这个不等式:

x1就是图里的x,y就是x2。这个理解不了可以直接用直线计算公式推。

2、hoeffding不等式

霍夫丁不等式 适用于有界的随机变量。设有两两独立的一系列随机变量

。假设对所有的

都是几乎有界的变量,即满足:

那么这n个随机变量的经验期望:

满足以下的不等式:

具体推到:统计学习--详解Hoeffding不等式 - 知乎

至于这个公式怎么推导,看了半天我也不会,不是高手建议大家还是不要为难自己。

3、泛化误差上界

当我们训练一个模型时,我们通常使用一个有限的训练数据集。模型在这个训练集上的表现(例如分类错误率或回归的损失)被称为训练误差或经验风险。但我们真正关心的是模型在面对从未见过的、新的数据(来自同一个数据分布)时的表现。通过理论上的概率方法,对模型在已知数据上的误差进行放缩,来表示模型在新数据上的期望误差被称为泛化误差或期望风险。有以下作用:

避免过拟合: 训练误差可能很低,但模型可能只是记住了训练数据(过拟合),导致在新数据上表现很差。泛化误差上界提醒我们,模型过于复杂(相对于数据量)可能导致泛化能力下降。

理论保证: 提供了一种理论框架,用于分析学习算法的性能,并指导模型设计(例如模型复杂度的选择)。很多论文里面都会用它来说明模型在未知数据上的理论能力期望。

样本复杂度: 揭示了需要多少训练样本才能以较高的概率保证泛化误差较小。

泛化误差计算公式:

P(x,y)可以理解成取到并测试这个数据的概率,就比如说有100个数据,每个数据被取到的概率相等,那么就是1%,这样积分出来的结果很明显可以发现是在[0,1]之间,实际上P一般不可知。

我们期望泛化误差在未知数据上被经验误差限制在一个范围(泛化误差上界,下面不等式左边的R(f)就是上面的Rexp(f)):

​,在该论文环境下,d可以看着不同模态的数量(也就是f的数量),N为测试样本数量。

这个放缩的量就是这个。上式成立的概率为1-。计算上就是用的上面的霍夫丁不等式。

推导1

我们需要经验误差(已知计算出的损失)和泛化误差(在未知数据上的损失)的差尽量的小,这样也就可以确定模型在未知数据上的大致误差。下面只考虑f1分类器:

我们期望Rexp(f1)-Remp(f1)尽量的小。

也就是Rexp(f)-Remp(f)<,尽量的接近0。

根据霍夫丁不等式,Rexp(f1)-Remp(f1)<成立的概率,即P(Rexp(f)-Remp(f)<),应当限制在多少呢。

我们再看一眼不等式先,不会爆炸的:

注意到:把t看成,R是限制在0-1之间的,那么b-a就是1,n个累加就是n,和上面的n方约掉一个n;再把n看作N

得到:

对条件取反,得到

考虑多个f:f1,f2...fd,各个分类器工作相互独立,P(f1f2)=P(f1)*P(f2),那么所有f同时满足条件的概率为:

右边这个有:。不理解的话可以对=X这个整体变量求偏导看单调性,其中:变量X在0-1之间,d是正整数。

可以得到:,其中

得证。

推导2

参考:泛化误差上界-CSDN博客:3.4

由于损失函数为 0-1 损失,因此损失函数取值范围为 [0,1]。从而对任意

f in F,有

根据 Hoeffding 不等式可得

由于假设空间 F为有限集合,因此有

因此有

即至少以概率 ,其中

命题得证。

相关推荐
kvo7f2JTy6 小时前
基于机器学习算法的web入侵检测系统设计与实现
前端·算法·机器学习
zxsz_com_cn7 小时前
设备预测性维护模型构建详解与实例:中讯烛龙如何用“数据+算法”破解故障预测难题
人工智能·深度学习·机器学习
深念Y11 小时前
多模态技术详解:TTS、ASR、OCR
ide·ai·语音识别·agi·多模态·文字识别·实时语言
Ferries11 小时前
《从前端到 Agent》系列|03:应用层-RAG(检索增强生成,Retrieval-Augmented Generation)
前端·人工智能·机器学习
茴香豆的茴12 小时前
手撕 Transformer (5):模型构建
transformer
逻辑君12 小时前
认知神经科学研究报告【20260008】
人工智能·深度学习·神经网络·机器学习
2601_9495394512 小时前
家用新能源 SUV 核心技术科普:后排娱乐、空间工程与混动可靠性解析
大数据·网络·人工智能·算法·机器学习
小超同学你好13 小时前
Transformer 23. Qwen 3.5 架构介绍:混合线性/全注意力、MoE 与相对 Qwen 1 / 2 / 3 的演进
人工智能·深度学习·语言模型·架构·transformer
郝学胜-神的一滴14 小时前
PyTorch自动微分核心解析:从原理到实战实现权重更新
人工智能·pytorch·python·深度学习·算法·机器学习