开源 动态课程学习的单细胞聚类

Curriculum-guided divergence scheduling improves single-cell clustering robustness

复制代码
该存储库包含 DAGCL 的参考实现,DAGCL 是一个基于图的深度聚类框架,它将一个简单的原理应用于噪声大、稀疏的 scRNA-seq 数据:

聚类压力只有在表征稳定后才会上升。
早期训练应学习一个抗噪流形。后期训练应提高分区精度。

DAGCL 通过在训练过程中同步三个量来实现这一原则:表征能力、基于散度的自监督和分配平衡。

核心思想:分阶段聚类作为表征成熟过程
大多数深度聚类流程在整个训练过程中都采用固定的架构和固定的聚类目标。而 DAGCL 则将聚类视为一个由粗到精的过程。

在 DAGCL 中,训练从保守的模式开始,该模式倾向于在稀疏性和 dropout 条件下获得稳定的嵌入。随着训练的进行,DAGCL 会提高有效容量和聚类压力,从而使模型仅在嵌入几何结构准备就绪时才细化边界。

主要贡献
图聚合中的动态容量
DAGCL 使用动态注意力机制,在训练过程中调整聚合强度和有效通道容量,从而提高分离度,同时避免过早过度平滑。

进度感知发散调度
DAGCL 根据训练进度调整基于 KL 的聚类目标,在伪标签不可靠时减少早期确认偏差,并在结构变得一致时加强监督。

熵正则化分配平衡
DAGCL 使用 Sinkhorn 平衡来规范软分配并提高全局一致性,从而在类别不平衡和噪声下稳定优化。

图表(快速概览)
图 1. DAGCL 架构
总结了整个流程,包括动态注意力机制、发散调度和 Sinkhorn 平衡分配。




图 2. 课程动态和可解释性诊断
以可视化方式呈现 DCL 的进展情况。


图 3. 聚类可视化
提供一些数据集的代表性嵌入和聚类可视化结果。


图 4. 实验结果
总结基准测试结果。
复制代码
@article{zhou2026curriculum,
  title={Curriculum-guided divergence scheduling improves single-cell clustering robustness},
  author={Zhou, Meihua and Zheng, Tianlong and Wang, Baihua and Tong, Xinyu and kin Fung, Wai and Yang, Li},
  journal={Neural Networks},
  pages={108592},
  year={2026},
  publisher={Elsevier}
}

欢迎参考 感谢关注!开源代码:https://github.com/mh-zhou/DAGCL/tree/main

相关推荐
西岸行者3 天前
学习笔记:SKILLS 能帮助更好的vibe coding
笔记·学习
悠哉悠哉愿意3 天前
【单片机学习笔记】串口、超声波、NE555的同时使用
笔记·单片机·学习
别催小唐敲代码3 天前
嵌入式学习路线
学习
毛小茛3 天前
计算机系统概论——校验码
学习
babe小鑫3 天前
大专经济信息管理专业学习数据分析的必要性
学习·数据挖掘·数据分析
winfreedoms3 天前
ROS2知识大白话
笔记·学习·ros2
在这habit之下3 天前
Linux Virtual Server(LVS)学习总结
linux·学习·lvs
我想我不够好。3 天前
2026.2.25监控学习
学习
im_AMBER3 天前
Leetcode 127 删除有序数组中的重复项 | 删除有序数组中的重复项 II
数据结构·学习·算法·leetcode
CodeJourney_J3 天前
从“Hello World“ 开始 C++
c语言·c++·学习