开源 动态课程学习的单细胞聚类

Curriculum-guided divergence scheduling improves single-cell clustering robustness

复制代码
该存储库包含 DAGCL 的参考实现,DAGCL 是一个基于图的深度聚类框架,它将一个简单的原理应用于噪声大、稀疏的 scRNA-seq 数据:

聚类压力只有在表征稳定后才会上升。
早期训练应学习一个抗噪流形。后期训练应提高分区精度。

DAGCL 通过在训练过程中同步三个量来实现这一原则:表征能力、基于散度的自监督和分配平衡。

核心思想:分阶段聚类作为表征成熟过程
大多数深度聚类流程在整个训练过程中都采用固定的架构和固定的聚类目标。而 DAGCL 则将聚类视为一个由粗到精的过程。

在 DAGCL 中,训练从保守的模式开始,该模式倾向于在稀疏性和 dropout 条件下获得稳定的嵌入。随着训练的进行,DAGCL 会提高有效容量和聚类压力,从而使模型仅在嵌入几何结构准备就绪时才细化边界。

主要贡献
图聚合中的动态容量
DAGCL 使用动态注意力机制,在训练过程中调整聚合强度和有效通道容量,从而提高分离度,同时避免过早过度平滑。

进度感知发散调度
DAGCL 根据训练进度调整基于 KL 的聚类目标,在伪标签不可靠时减少早期确认偏差,并在结构变得一致时加强监督。

熵正则化分配平衡
DAGCL 使用 Sinkhorn 平衡来规范软分配并提高全局一致性,从而在类别不平衡和噪声下稳定优化。

图表(快速概览)
图 1. DAGCL 架构
总结了整个流程,包括动态注意力机制、发散调度和 Sinkhorn 平衡分配。




图 2. 课程动态和可解释性诊断
以可视化方式呈现 DCL 的进展情况。


图 3. 聚类可视化
提供一些数据集的代表性嵌入和聚类可视化结果。


图 4. 实验结果
总结基准测试结果。
复制代码
@article{zhou2026curriculum,
  title={Curriculum-guided divergence scheduling improves single-cell clustering robustness},
  author={Zhou, Meihua and Zheng, Tianlong and Wang, Baihua and Tong, Xinyu and kin Fung, Wai and Yang, Li},
  journal={Neural Networks},
  pages={108592},
  year={2026},
  publisher={Elsevier}
}

欢迎参考 感谢关注!开源代码:https://github.com/mh-zhou/DAGCL/tree/main

相关推荐
YCY^v^1 天前
JeecgBoot 项目运行指南
java·学习
云小逸1 天前
【nmap源码解析】Nmap OS识别核心模块深度解析:osscan2.cc源码剖析(1)
开发语言·网络·学习·nmap
JustDI-CM1 天前
AI学习笔记-提示词工程
人工智能·笔记·学习
悟纤1 天前
学习与专注音乐流派 (Study & Focus Music):AI 音乐创作终极指南 | Suno高级篇 | 第33篇
大数据·人工智能·深度学习·学习·suno·suno api
爱写bug的野原新之助1 天前
加密摘要算法MD5、SHA、HMAC:学习笔记
笔记·学习
ZH15455891311 天前
Flutter for OpenHarmony Python学习助手实战:Web开发框架应用的实现
python·学习·flutter
百锦再1 天前
Vue高阶知识:利用 defineModel 特性开发搜索组件组合
前端·vue.js·学习·flutter·typescript·前端框架
CappuccinoRose1 天前
JavaScript 学习文档(二)
前端·javascript·学习·数据类型·运算符·箭头函数·变量声明
A9better1 天前
C++——不一样的I/O工具与名称空间
开发语言·c++·学习
AI职业加油站1 天前
职业提升之路:我的大数据分析师学习与备考分享
大数据·人工智能·经验分享·学习·职场和发展·数据分析