开源 动态课程学习的单细胞聚类

Curriculum-guided divergence scheduling improves single-cell clustering robustness

复制代码
该存储库包含 DAGCL 的参考实现,DAGCL 是一个基于图的深度聚类框架,它将一个简单的原理应用于噪声大、稀疏的 scRNA-seq 数据:

聚类压力只有在表征稳定后才会上升。
早期训练应学习一个抗噪流形。后期训练应提高分区精度。

DAGCL 通过在训练过程中同步三个量来实现这一原则:表征能力、基于散度的自监督和分配平衡。

核心思想:分阶段聚类作为表征成熟过程
大多数深度聚类流程在整个训练过程中都采用固定的架构和固定的聚类目标。而 DAGCL 则将聚类视为一个由粗到精的过程。

在 DAGCL 中,训练从保守的模式开始,该模式倾向于在稀疏性和 dropout 条件下获得稳定的嵌入。随着训练的进行,DAGCL 会提高有效容量和聚类压力,从而使模型仅在嵌入几何结构准备就绪时才细化边界。

主要贡献
图聚合中的动态容量
DAGCL 使用动态注意力机制,在训练过程中调整聚合强度和有效通道容量,从而提高分离度,同时避免过早过度平滑。

进度感知发散调度
DAGCL 根据训练进度调整基于 KL 的聚类目标,在伪标签不可靠时减少早期确认偏差,并在结构变得一致时加强监督。

熵正则化分配平衡
DAGCL 使用 Sinkhorn 平衡来规范软分配并提高全局一致性,从而在类别不平衡和噪声下稳定优化。

图表(快速概览)
图 1. DAGCL 架构
总结了整个流程,包括动态注意力机制、发散调度和 Sinkhorn 平衡分配。




图 2. 课程动态和可解释性诊断
以可视化方式呈现 DCL 的进展情况。


图 3. 聚类可视化
提供一些数据集的代表性嵌入和聚类可视化结果。


图 4. 实验结果
总结基准测试结果。
复制代码
@article{zhou2026curriculum,
  title={Curriculum-guided divergence scheduling improves single-cell clustering robustness},
  author={Zhou, Meihua and Zheng, Tianlong and Wang, Baihua and Tong, Xinyu and kin Fung, Wai and Yang, Li},
  journal={Neural Networks},
  pages={108592},
  year={2026},
  publisher={Elsevier}
}

欢迎参考 感谢关注!开源代码:https://github.com/mh-zhou/DAGCL/tree/main

相关推荐
Flamingˢ2 小时前
Verilog中reg与wire的区别:从语法到实战
学习·fpga开发·硬件工程
heartbeat..2 小时前
Spring Boot 学习:原理、注解、配置文件与部署解析
java·spring boot·学习·spring
信奥胡老师2 小时前
P14917 [GESP202512 五级] 数字移动
开发语言·数据结构·c++·学习·算法
深情的小陈同学2 小时前
工作学习笔记 —— 解决刷新缓存问题
笔记·学习·ai编程
好奇龙猫2 小时前
大学院-筆記試験練習:数据库(データベース問題訓練) と 软件工程(ソフトウェア)(8)
学习
天上的光2 小时前
车道线检测
学习
咚咚王者2 小时前
人工智能之核心基础 机器学习 第十三章 自监督学习
人工智能·学习·机器学习
2501_944934732 小时前
高职学历转行电商运营的数据分析学习路径
学习·数据挖掘·数据分析
承渊政道2 小时前
C++学习之旅【C++String类介绍】
c语言·c++·vscode·学习