Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
Yan-英杰8 分钟前
2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单
人工智能·深度学习·神经网络·机器学习·ai·大模型
威风的虫27 分钟前
RAG 系统的经典工作流程
人工智能·python·rag
sunny066036 分钟前
Triton Kernel概述
人工智能
棒棒的皮皮43 分钟前
【深度学习】YOLO-Python基础认知与算法演进
python·深度学习·yolo·计算机视觉
aiguangyuan1 小时前
机器学习入门
人工智能·python·机器学习
沃达德软件1 小时前
侦查实战中心大数据应用
大数据·人工智能·计算机视觉·数据挖掘·音视频
aircrushin1 小时前
打造智能财务分析Agent:Claude Agent SDK完整实战案例
人工智能
共绩算力1 小时前
统一多模态基础模型:发展、架构与挑战的全面综述
人工智能·架构·共绩算力
Deepoch1 小时前
外拓板赋能:景区机器人迎战客流高峰新范式
人工智能·机器人·具身模型·deepoc·景区机器人