Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
Raink老师32 分钟前
【AI面试临阵磨枪-34】单 Agent 与多 Agent(Multi-Agent)架构区别、适用场景、挑战
人工智能·ai 面试
LeesonWong33 分钟前
从 PDF 到 MCP:让 AI Agent 按需查询你的简历
人工智能
lwf00616434 分钟前
DeepFM 学习日记
深度学习·机器学习
灵机一物35 分钟前
灵机一物AI原生电商小程序、PC端(已上线)-【AI 技术周报】2026 年 4 月第 4 周|模型、算力、商业化、安全全景梳理
人工智能
redreamSo38 分钟前
一个只有70行的文件,凭什么拿下GitHub 10万星?
人工智能·开源
互联网志38 分钟前
政策赋能校产融合 推动高校科技成果落地生根
大数据·人工智能·物联网
qcx2342 分钟前
Warp源码深度解析(四):AI Agent原生集成——MCP协议、代码索引与Skills系统
人工智能·ai·agent·源码解析·wrap
Narrastory1 小时前
Note:强化学习(六)
人工智能·深度学习·强化学习
智枢圈1 小时前
Embedding 与向量数据库
人工智能
羑悻1 小时前
深入 LangChain 内存向量存储(Memory Vector Stores):架构解析与优化
人工智能