【论文阅读】Explainable Early Stopping for Action Unit Recognition

在训练深度神经网络(DNN)时,避免过拟合的常见技术是在专用的验证数据分区上监控性能,并在性能饱和时停止训练。这种方法只关注模型的行为,而完全忽略了模型内部发生了什么。

在本文中,我们使用代数拓扑来分析DNN在训练AU识别时的功能图的拓扑结构。我们将标准的带耐心的早期停止(ESP)[1]与迄今为止提出的仅有的两种基于拓扑的早期停止算法进行比较,即拓扑早期停止(TES)[3]和通过神经持久性实现的早期停止(ESNP)[17]。

拓扑早期停止(TES)[3]和通过神经持久性实现的早期停止(ESNP)[17]。两者都使用代数拓扑(更具体地说是持久同调)来计算所谓的贝蒂数曲线,该曲线在基于分析网络定义的拓扑空间中计算不同尺度上的空腔数量。在训练期间的每个周期中计算这种网络拓扑度量,并用作早期停止的标准。ESNP计算贝蒂数曲线的积分,并在它饱和时停止。另一方面,TES观察贝蒂数曲线峰值的密度,并在它开始向更高密度方向后退时停止。

3\] Ciprian A Corneanu, Meysam Madadi, Sergio Escalera, and Aleix MMartinez. What does it mean to learn in deep networks? and, how does one detect adversarial attacks? In Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition, pages 4757--4766, 2019. \[17\] Bastian Rieck, Matteo Togninalli, Christian Bock, Michael Moor, MaxHorn, Thomas Gumbsch, and Karsten Borgwardt. Neural persistence:A complexity measure for deep neural networks using algebraic topology. arXiv preprint arXiv:1812.09764, 2018.

常规方法,计算两个神经元之间相关性,构造PD

DNN中的泛化学习通过在功能拓扑中创建一维、二维和三维空腔来定义,并且这些空腔从更高密度向更低密度移动[3]。过拟合表现为这些空腔在功能二元图中向更高密度回归。这一通用原则如图2(b)所示,是拓扑早期停止(TES)标准[3]的基础。在这里,我们将这一分析扩展到对象识别和标准网络架构之外

相关推荐
数智工坊3 小时前
基于CLIP隐空间的层级文本条件图像生成:unCLIP核心原理与全链路解析
论文阅读·人工智能·深度学习·transformer·迁移学习
QFIUNE6 小时前
【文献阅读】化学空间边缘的分子深度学习
论文阅读·人工智能·笔记·深度学习
数智工坊1 天前
ControlNet:为文生图扩散模型注入精准空间条件控制
论文阅读·人工智能·深度学习·transformer·迁移学习
莽撞的大地瓜1 天前
校对通更新!告别反复转格式 PDF图文/扫描件一键校对
论文阅读·新媒体运营·内容运营
Ma0407132 天前
SCI投稿
论文阅读
数智工坊2 天前
【DDIM 论文阅读】:扩散模型加速采样的里程碑!10~50 倍快采 + 确定性生成
论文阅读·人工智能·深度学习·cnn·transformer
数智工坊3 天前
【VAE 论文阅读| ICLR 2014】:变分自编码器——深度生成模型的理论基石
论文阅读·人工智能·深度学习
数智工坊4 天前
【ECNDNet论文阅读|图像去噪经典】:融合残差、BN与空洞卷积的增强型去噪网络
网络·论文阅读
数智工坊5 天前
【RT-DETR论文阅读】:首个实时端到端Transformer检测器,DETR正式超越YOLO
论文阅读·yolo·transformer
数智工坊5 天前
【Transfer CLIP论文阅读】跨模态大模型赋能!CLIP迁移学习实现超强泛化图像去噪
论文阅读·人工智能·迁移学习