Curriculum-guided divergence scheduling improves single-cell clustering robustness
该存储库包含 DAGCL 的参考实现,DAGCL 是一个基于图的深度聚类框架,它将一个简单的原理应用于噪声大、稀疏的 scRNA-seq 数据:
聚类压力只有在表征稳定后才会上升。
早期训练应学习一个抗噪流形。后期训练应提高分区精度。
DAGCL 通过在训练过程中同步三个量来实现这一原则:表征能力、基于散度的自监督和分配平衡。
核心思想:分阶段聚类作为表征成熟过程
大多数深度聚类流程在整个训练过程中都采用固定的架构和固定的聚类目标。而 DAGCL 则将聚类视为一个由粗到精的过程。
在 DAGCL 中,训练从保守的模式开始,该模式倾向于在稀疏性和 dropout 条件下获得稳定的嵌入。随着训练的进行,DAGCL 会提高有效容量和聚类压力,从而使模型仅在嵌入几何结构准备就绪时才细化边界。
主要贡献
图聚合中的动态容量
DAGCL 使用动态注意力机制,在训练过程中调整聚合强度和有效通道容量,从而提高分离度,同时避免过早过度平滑。
进度感知发散调度
DAGCL 根据训练进度调整基于 KL 的聚类目标,在伪标签不可靠时减少早期确认偏差,并在结构变得一致时加强监督。
熵正则化分配平衡
DAGCL 使用 Sinkhorn 平衡来规范软分配并提高全局一致性,从而在类别不平衡和噪声下稳定优化。
图表(快速概览)
图 1. DAGCL 架构
总结了整个流程,包括动态注意力机制、发散调度和 Sinkhorn 平衡分配。
图 2. 课程动态和可解释性诊断
以可视化方式呈现 DCL 的进展情况。
图 3. 聚类可视化
提供一些数据集的代表性嵌入和聚类可视化结果。
图 4. 实验结果
总结基准测试结果。
@article{zhou2026curriculum,
title={Curriculum-guided divergence scheduling improves single-cell clustering robustness},
author={Zhou, Meihua and Zheng, Tianlong and Wang, Baihua and Tong, Xinyu and kin Fung, Wai and Yang, Li},
journal={Neural Networks},
pages={108592},
year={2026},
publisher={Elsevier}
}
欢迎参考 感谢关注!开源代码:https://github.com/mh-zhou/DAGCL/tree/main