灾难性遗忘

Better Bench5 个月前
持续学习·灾难性遗忘·脑启发·内存效率·海马体网络·前额叶皮层·外侧杏仁核
【博士每天一篇文献-算法】Fearnet Brain-inspired model for incremental learning阅读时间:2023-12-16年份:2017 作者:Ronald Kemker,美国太空部队;Christopher Kanan,罗切斯特大学 期刊: arXiv preprint 引用量:520 Kemker R, Kanan C. Fearnet: Brain-inspired model for incremental learning[J]. arXiv preprint arXiv:1711.10563, 2017. 提出一种名为 FearNet 的新型神经网络模型,这个模型受到大脑记忆机制的启
Better Bench5 个月前
元学习·小样本学习·持续学习·灾难性遗忘·增量学习·过拟合·少量样本增量学习
【博士每天一篇文献-综述】A survey on few-shot class-incremental learning阅读时间:2023-12-19年份:2024 作者:田松松,中国科学院半导体研究所;李璐思,老道明大学助理教授;李伟军,中国科学院半导体研究所AnnLab; 期刊: Neural Networks 引用量:30 Tian S, Li L, Li W, et al. A survey on few-shot class-incremental learning[J]. Neural Networks, 2024, 169: 307-324. 是关于少量样本增量学习(Few-shot Class-Increm
Better Bench1 年前
持续学习·连续学习·灾难性遗忘·弹性权重合并·ewc
【博士每天一篇文献-算法】Overcoming catastrophic forgetting in neural networks阅读时间:2023-10-24年份:2016 作者:James Kirkpatrick, Razvan Pascanu, Neil Rabinowitz, Joel Veness, Guillaume Desjardins, Andrei A. Rusu, Kieran Milan, John Quan, Tiago Ramalho, Agnieszka Grabska-Barwinska, Demis Hassabis, Claudia Clopath, Dharshan Kumaran, Raia H