Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
许泽宇的技术分享3 分钟前
当AI开始“画“界面:A2UI协议如何让.NET应用告别写死的UI
人工智能·ui·.net·blazor·a2ui
程序员佳佳5 分钟前
文章标题:彻底抛弃OpenAI官方Key?实测GPT-5.2与Banana Pro(Gemini 3):这才是开发者的终极红利!
开发语言·人工智能·python·gpt·ai作画·api·midjourney
行走的bug...6 分钟前
利用计算机辅助数学运算
人工智能·算法·机器学习
大模型RAG和Agent技术实践12 分钟前
从零构建:基于 LangGraph 的医疗问诊智能体实战(完整源代码)
人工智能·langchain·agent·langgraph
tiannian122017 分钟前
如何选择适合企业的RFID系统解决方案?
大数据·人工智能
生成论实验室19 分钟前
生成何以智能?——论道法术器贯通的生成式AGI新范式及其技术实现
人工智能·科技·神经网络·信息与通信·几何学
WhereIsMyChair21 分钟前
BatchNorm、LayerNorm和RMSNorm的区别
人工智能·语言模型
噜~噜~噜~21 分钟前
D-CBRS(Diverse Class-Balancing Reservoir Sampling )的个人理解
人工智能·深度学习·持续学习·cbrs·d-cbrs
Kiyra21 分钟前
LinkedHashMap 源码阅读
java·开发语言·网络·人工智能·安全·阿里云·云计算
Yeats_Liao23 分钟前
MindSpore开发之路(十四):简化训练循环:高阶API `mindspore.Model` 的妙用
人工智能·python·深度学习