Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
OEC小胖胖6 分钟前
DeepSeek导出文档
人工智能·效率工具·知识管理·ai工作流·deepseek
得一录36 分钟前
蒸汽、钢铁与无限心智(Steam, Steel, and Infinite Minds)全文
人工智能·aigc
大模型任我行1 小时前
英伟达:物理感知的多模态评判模型
人工智能·语言模型·自然语言处理·论文笔记
laplace01231 小时前
IcePop技术
人工智能·大模型·agent·claude·rag·skills·icepop
l1t1 小时前
DeepSeek总结的Nanbeige4.1-3B:一个具备推理、对齐与行动能力的小型通用模型
人工智能
一只理智恩1 小时前
AI 实战应用:从“搜索式问答“到“理解式助教“
人工智能·python·语言模型·golang
DeepModel2 小时前
第15章 多模态学习
深度学习·学习·机器学习
nudt_qxx2 小时前
讲透Transformer(三):Transformer 注意力机制详解与Qwen/DeepSeek近期改进
人工智能·深度学习·transformer
绒绒毛毛雨2 小时前
多目标强化学习-英伟达:GDPO
人工智能·深度学习·机器学习