Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
Thomas.Sir几秒前
第六章:RAG知识库开发之【深入浅出RAG使用效果评估:从指标到实践】
人工智能·python·ai·rag·效果评估
Agent产品评测局2 分钟前
企业采购自动化落地,供应商全生命周期管控实现方案:智能体驱动下的全链路提效与合规治理
运维·人工智能·ai·chatgpt·自动化
aosky3 分钟前
可以白嫖的Nano Banana2 字节跳动出品可以写ppt,写网页,做设计....
人工智能·数据分析·powerpoint
sali-tec3 分钟前
C# 基于OpenCv的视觉工作流-章45-圆卡尺
图像处理·人工智能·opencv·算法·计算机视觉
AI数据皮皮侠4 分钟前
支持向量机
人工智能·机器学习·支持向量机
VBsemi-专注于MOSFET研发定制7 分钟前
面向高算力高可靠需求的高端液冷AI服务器功率MOSFET选型策略与器件适配手册
人工智能
刘若里8 分钟前
【论文阅读】自适应稀疏自注意力——可直接用!
论文阅读·人工智能·笔记·深度学习·计算机视觉
小哈里9 分钟前
【证书】2026上海市人工智能训练师—高级/三级考试介绍与复习(SAIA版)&&(零基础速通必过版)
人工智能·ai·大模型·证书·人工智能训练师
陈海明hack10 分钟前
AI系统架构设计和设计思想
人工智能·系统架构·智能体