Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
白日做梦Q16 分钟前
深度学习模型评估指标深度解析:不止于准确率的科研量化方法
人工智能·深度学习
Yyyyy123jsjs18 分钟前
外汇Tick数据交易时段详解与Python实战分析
人工智能·python·区块链
张彦峰ZYF32 分钟前
提示词工程实战指南:从概念认知到可验证的高质量 Prompt 设计
人工智能·提示词工程实战指南·高质量 prompt 设计
哥布林学者1 小时前
吴恩达深度学习课程四:计算机视觉 第四周:卷积网络应用 (二) 图像风格转换
深度学习·ai
不易思不逸2 小时前
SAM2 测试
人工智能·python
BOF_dcb2 小时前
【无标题】
pytorch·深度学习·机器学习
V1ncent_xuan2 小时前
坐标转化Halcon&Opencv
人工智能·opencv·计算机视觉
咚咚王者2 小时前
人工智能之核心基础 机器学习 第一章 基础概述
人工智能·机器学习
StarChainTech2 小时前
电动车租赁中的智能管理:电子围栏技术如何改变出行行业
大数据·人工智能·微信小程序·小程序·团队开发·软件需求·共享经济