Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
研究点啥好呢3 分钟前
3月15日GitHub热门项目推荐 | 当AI拥有记忆
人工智能·python·github·openclaw
yhdata7 分钟前
年复合增速11.5%!智慧安全巡检机器人,锚定未来六年高成长新航向
人工智能·安全·机器人
Smoothcloud润云9 分钟前
Seedance 2.0深度解析:从“抽卡地狱”到工业化视频创作的革命
大数据·人工智能·计算机视觉·语言模型·ai作画·音视频·语音识别
小龙报9 分钟前
【AI】高效交互的艺术:AI提示工程与大模型对话指南
人工智能·深度学习·神经网络·自然语言处理·chatgpt·交互·语音识别
明君8799720 分钟前
Genkit Google 开源的 AI 应用开发框架介绍
人工智能
BertieHuang20 分钟前
《OpenCode 源码解析》Step 9: User Content 组装和第二次 LLM 调用概览
人工智能
AI攻城狮21 分钟前
长上下文不是长期记忆:为什么 1M Context 也不会淘汰 RAG
人工智能·云原生·aigc
疲惫的神熊猫22 分钟前
Linux(Ubuntu)部署Ollama+Qwen(千问)本地大模型实战01
人工智能
码路飞22 分钟前
熬夜看完 GTC 2026 Keynote,这 5 个发布跟开发者最相关(不只是显卡)
人工智能
山科智能信息处理实验室26 分钟前
ACM MM 2024 | GeoFormer:基于三平面(Tri-Plane)与Transformer的高维点云补全原理解析
深度学习·3d