Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
极客BIM工作室2 分钟前
AI论文整理:TOKENCOMPOSE: Text-to-Image Diffusion with Token-level Supervision
人工智能
Elastic 中国社区官方博客4 分钟前
Elasticsearch:在隔离环境中安装 ELSER 模型
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
跨境卫士—小依11 分钟前
深耕 Ozon:俄罗斯电商精准盈利的核心玩法
大数据·人工智能·矩阵·跨境电商·亚马逊·防关联
love530love15 分钟前
【ComfyUI/SD环境管理指南(二)】:如何避免插件安装导致的环境崩溃与“外科手术式”修复
人工智能·windows·python·stable diffusion·github·aigc·comfyui
Yeats_Liao17 分钟前
CANN Samples(九):内存管理与性能优化
人工智能·深度学习·性能优化
Dev7z19 分钟前
基于深度学习的中文手写数字识别系统研究与实现
人工智能·深度学习
wshzd24 分钟前
LLM之Agent(三十六)|AI Agents(五):Workflow vs Agent
人工智能
创客匠人老蒋26 分钟前
AI正在重塑IP:创客匠人峰会探讨智能体与未来趋势
人工智能·创始人ip·创客匠人全球ip+ai高峰论坛
极智视界35 分钟前
目标检测数据集 - 卫星图像船舶检测数据集下载
人工智能·目标检测·目标跟踪
宇来风满楼37 分钟前
U-KAN复现
人工智能·深度学习·神经网络·算法·机器学习