开源 动态课程学习的单细胞聚类

Curriculum-guided divergence scheduling improves single-cell clustering robustness

复制代码
该存储库包含 DAGCL 的参考实现,DAGCL 是一个基于图的深度聚类框架,它将一个简单的原理应用于噪声大、稀疏的 scRNA-seq 数据:

聚类压力只有在表征稳定后才会上升。
早期训练应学习一个抗噪流形。后期训练应提高分区精度。

DAGCL 通过在训练过程中同步三个量来实现这一原则:表征能力、基于散度的自监督和分配平衡。

核心思想:分阶段聚类作为表征成熟过程
大多数深度聚类流程在整个训练过程中都采用固定的架构和固定的聚类目标。而 DAGCL 则将聚类视为一个由粗到精的过程。

在 DAGCL 中,训练从保守的模式开始,该模式倾向于在稀疏性和 dropout 条件下获得稳定的嵌入。随着训练的进行,DAGCL 会提高有效容量和聚类压力,从而使模型仅在嵌入几何结构准备就绪时才细化边界。

主要贡献
图聚合中的动态容量
DAGCL 使用动态注意力机制,在训练过程中调整聚合强度和有效通道容量,从而提高分离度,同时避免过早过度平滑。

进度感知发散调度
DAGCL 根据训练进度调整基于 KL 的聚类目标,在伪标签不可靠时减少早期确认偏差,并在结构变得一致时加强监督。

熵正则化分配平衡
DAGCL 使用 Sinkhorn 平衡来规范软分配并提高全局一致性,从而在类别不平衡和噪声下稳定优化。

图表(快速概览)
图 1. DAGCL 架构
总结了整个流程,包括动态注意力机制、发散调度和 Sinkhorn 平衡分配。




图 2. 课程动态和可解释性诊断
以可视化方式呈现 DCL 的进展情况。


图 3. 聚类可视化
提供一些数据集的代表性嵌入和聚类可视化结果。


图 4. 实验结果
总结基准测试结果。
复制代码
@article{zhou2026curriculum,
  title={Curriculum-guided divergence scheduling improves single-cell clustering robustness},
  author={Zhou, Meihua and Zheng, Tianlong and Wang, Baihua and Tong, Xinyu and kin Fung, Wai and Yang, Li},
  journal={Neural Networks},
  pages={108592},
  year={2026},
  publisher={Elsevier}
}

欢迎参考 感谢关注!开源代码:https://github.com/mh-zhou/DAGCL/tree/main

相关推荐
经年未远1 小时前
vue3中实现耳机和扬声器切换方案
javascript·学习·vue
Hill_HUIL1 小时前
学习日志22-静态路由
网络·学习
詩不诉卿3 小时前
zephyr学习之自定义外部module记录
学习
浮游本尊3 小时前
React 18.x 学习计划 - 第十三天:部署与DevOps实践
学习·react.js·状态模式
wdfk_prog3 小时前
[Linux]学习笔记系列 -- [drivers][dma]dmapool
linux·笔记·学习
电饭叔3 小时前
Tkinter Button 括号内的核心参数详解
python·学习
闵帆4 小时前
反演学习器面临的鸿沟
人工智能·学习·机器学习
EnglishJun5 小时前
数据结构的学习(二)---Makefile的使用
linux·运维·学习
呱呱巨基5 小时前
c语言 文件操作
c语言·开发语言·c++·笔记·学习
嗯嗯**7 小时前
Neo4j学习1:概述、安装
学习·neo4j·概述·安装·图数据库·jdk21