Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
三流架构师5 分钟前
Ai产品经理资源合集(第二辑)
人工智能·产品经理
编码小哥7 分钟前
OpenCV直方图处理技术:均衡化与CLAHE详解
人工智能·opencv·计算机视觉
witAI8 分钟前
gemini3.1拆短剧2025解析,多模态模型如何重塑内容创作流程
人工智能·python
love530love18 分钟前
Windows 11 源码编译 vLLM 0.16 完全指南(CUDA 12.6 / PyTorch 2.7.1+cu126)
人工智能·pytorch·windows·python·深度学习·comfyui·vllm
东离与糖宝20 分钟前
SpringBoot 整合 OpenClaw 技能系统实战:让企业级 AI 自动化告别“黑盒“操作
人工智能
CoderJia程序员甲20 分钟前
GitHub 热榜项目 - 日榜(2026-03-10)
人工智能·ai·大模型·github·ai教程
njsgcs21 分钟前
我要训练神经网络可以识别solidworks哪个面和哪个面之间会出现标注
人工智能
树獭非懒32 分钟前
AI大模型小白手册 | RAG技术与应用
人工智能·llm
小鸡吃米…37 分钟前
自然语言处理 —— 信息检索
人工智能·自然语言处理·nlp
WJSKad12351 小时前
[特殊字符] SecRoBERTa:网络安全AI新里程碑[特殊字符]️
人工智能·安全·web安全