“Life Long Learning”(终身学习)和“灾难性遗忘”(catastrophic forgetting)

"Life Long Learning"(终身学习)是一种让深度学习模型能够持续地在不同的任务上进行增量学习的方法,它旨在解决传统的深度学习模型在面对新任务时容易出现"灾难性遗忘"(catastrophic forgetting)的问题³。也就是说,当一个深度学习模型在一个新任务上进行训练时,它会忘记之前在其他任务上学到的知识,导致在旧任务上的性能下降³。

"Life Long Learning"可以通过以下几种策略来提高深度学习模型的能力:

知识保留(Knowledge Retention):这种策略是通过对模型参数更新做一些限制,让它不要偏离之前任务太远,从而避免忘记之前的知识。

知识迁移(Knowledge Transfer)是一种让深度学习模型能够利用已有的知识来解决新的任务的策略。它的基本思想是,如果两个任务之间有一些共同的特征或规律,那么在一个任务上学到的知识可以帮助另一个任务的学习。例如,如果我们想让一个模型能够识别猫和狗的图片,我们可以先让它在一个大型的图片数据集上进行预训练,学习一些通用的图像特征,然后再在一个小型的猫狗图片数据集上进行微调,学习一些特定的猫狗特征。这样,我们就可以利用之前任务的知识来提高后续任务的性能。

知识迁移有很多种方法,其中一种是Progressive Neural Network(PNN)。PNN是一种动态地增加网络结构来适应不同任务的方法。它的基本思想是,对于每个新任务,它都会增加一个新的网络列(column),并且将之前任务每层输出的特征作为新任务对应层的输入。这样,新任务就可以利用之前任务的特征来进行学习,而不会影响之前任务的参数。

实战中可以把老的数据集当成任务1,新收集的数据集当成任务2

灾难性遗忘的示例:

相关推荐
西岸行者5 天前
学习笔记:SKILLS 能帮助更好的vibe coding
笔记·学习
悠哉悠哉愿意5 天前
【单片机学习笔记】串口、超声波、NE555的同时使用
笔记·单片机·学习
别催小唐敲代码5 天前
嵌入式学习路线
学习
毛小茛5 天前
计算机系统概论——校验码
学习
babe小鑫5 天前
大专经济信息管理专业学习数据分析的必要性
学习·数据挖掘·数据分析
winfreedoms5 天前
ROS2知识大白话
笔记·学习·ros2
在这habit之下5 天前
Linux Virtual Server(LVS)学习总结
linux·学习·lvs
我想我不够好。5 天前
2026.2.25监控学习
学习
im_AMBER5 天前
Leetcode 127 删除有序数组中的重复项 | 删除有序数组中的重复项 II
数据结构·学习·算法·leetcode
CodeJourney_J5 天前
从“Hello World“ 开始 C++
c语言·c++·学习