【论文阅读】Explainable Early Stopping for Action Unit Recognition

在训练深度神经网络(DNN)时,避免过拟合的常见技术是在专用的验证数据分区上监控性能,并在性能饱和时停止训练。这种方法只关注模型的行为,而完全忽略了模型内部发生了什么。

在本文中,我们使用代数拓扑来分析DNN在训练AU识别时的功能图的拓扑结构。我们将标准的带耐心的早期停止(ESP)[1]与迄今为止提出的仅有的两种基于拓扑的早期停止算法进行比较,即拓扑早期停止(TES)[3]和通过神经持久性实现的早期停止(ESNP)[17]。

拓扑早期停止(TES)[3]和通过神经持久性实现的早期停止(ESNP)[17]。两者都使用代数拓扑(更具体地说是持久同调)来计算所谓的贝蒂数曲线,该曲线在基于分析网络定义的拓扑空间中计算不同尺度上的空腔数量。在训练期间的每个周期中计算这种网络拓扑度量,并用作早期停止的标准。ESNP计算贝蒂数曲线的积分,并在它饱和时停止。另一方面,TES观察贝蒂数曲线峰值的密度,并在它开始向更高密度方向后退时停止。

3\] Ciprian A Corneanu, Meysam Madadi, Sergio Escalera, and Aleix MMartinez. What does it mean to learn in deep networks? and, how does one detect adversarial attacks? In Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition, pages 4757--4766, 2019. \[17\] Bastian Rieck, Matteo Togninalli, Christian Bock, Michael Moor, MaxHorn, Thomas Gumbsch, and Karsten Borgwardt. Neural persistence:A complexity measure for deep neural networks using algebraic topology. arXiv preprint arXiv:1812.09764, 2018.

常规方法,计算两个神经元之间相关性,构造PD

DNN中的泛化学习通过在功能拓扑中创建一维、二维和三维空腔来定义,并且这些空腔从更高密度向更低密度移动[3]。过拟合表现为这些空腔在功能二元图中向更高密度回归。这一通用原则如图2(b)所示,是拓扑早期停止(TES)标准[3]的基础。在这里,我们将这一分析扩展到对象识别和标准网络架构之外

相关推荐
ZHW_AI课题组6 小时前
【论文笔记】RAQ-VAE: Rate-Adaptive Vector-Quantized Variational Autoencoder
论文阅读
远瞻。11 小时前
【论文精读】DifFace: Blind Face Restoration with Diffused Error Contraction
论文阅读·人工智能·diffusion
勤奋的小笼包14 小时前
【论文阅读】FairCLIP - 医疗视觉语言学习中的公平性提升
论文阅读·人工智能·笔记·学习·语言模型·自然语言处理·chatgpt
勤奋的小笼包15 小时前
【论文阅读】MMed-RAG:让多模态大模型告别“事实性幻觉”
论文阅读·人工智能·深度学习·语言模型·自然语言处理·chatgpt·nlp
Zhouqi_Hua1 天前
LLM论文笔记 25: Chain-of-Thought Reasoning without Prompting
论文阅读·人工智能·深度学习·机器学习·chatgpt
不解风水1 天前
【论文阅读】Looking to Listen at the Cocktail Party:一种与说话人无关的语音分离视听模型
论文阅读
寻丶幽风2 天前
论文阅读笔记——ADALORA: ADAPTIVE BUDGET ALLOCATION FOR PARAMETER-EFFICIENT FINE-TUNING
论文阅读·人工智能·笔记·语言模型
栀子清茶2 天前
Towards Universal Soccer Video Understanding——论文学习(足球类)
论文阅读·人工智能·深度学习·学习·算法·计算机视觉·论文笔记
东荷新绿2 天前
【CVPR-2023】DR2:解决盲人脸复原无法覆盖真实世界所有退化的问题
论文阅读·扩散模型·盲人脸复原