Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
dxnb223 分钟前
Datawhale26年1月组队学习:Agentic AI+Task1工作流简介
人工智能·学习
aitoolhub8 分钟前
H5交互设计:从策划到上线的实用方法论与避坑要点
人工智能·计算机视觉·交互·视觉传达
冰西瓜6009 分钟前
从项目入手机器学习——(一)数据预处理(上)
人工智能·机器学习
EasyCVR12 分钟前
视频融合平台EasyCVR构建太阳能供电远程视频监控系统的智慧中枢
人工智能·音视频
星浩AI17 分钟前
深入理解 LlamaIndex:RAG 框架核心概念与实践
人工智能·后端·python
汤姆yu19 分钟前
基于深度学习的火焰烟雾识别系统
人工智能·深度学习·目标跟踪
灯下夜无眠19 分钟前
sklearn中fit、transform、fit_transform用法详解
人工智能·python·sklearn
张彦峰ZYF22 分钟前
多模态大模型、混合专家模型与云端协同架构
人工智能·计算机视觉·多模态大模型·混合专家架构·大小模型协同架构
丝斯201125 分钟前
AI学习笔记整理(43)——NLP之大规模预训练模型BERT
人工智能·学习·自然语言处理