Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
weixin_4171970513 小时前
OpenAI ChatGPT Images 2.0:AI生图进入“思考时代“
人工智能·chatgpt
AI精钢13 小时前
Hermes Agent 整合 OpenCode CLI 的实战经验
人工智能·云原生·aigc
多年小白13 小时前
AI 日报 - 2026年4月25日(周六)
网络·人工智能·科技·深度学习·ai
互联科技报13 小时前
从形似到神离:解码超级编导、超级智剪、筷子科技的架构分野与云混剪2.0的范式革命
人工智能·线性代数·矩阵
唐兴通个人13 小时前
国机集团央企出海样本:苏美达如何用AI重构TOB销售链路与全球品牌能见度,AI出海营销培训师专家
人工智能
周末也要写八哥13 小时前
大语言模型的“自我迭代”
人工智能·语言模型·自然语言处理
生成论实验室13 小时前
生命降U:从分子共鸣到觉知涌现
人工智能·科技·架构·生活·信息与通信
晓山清13 小时前
CCF评级AI方向整理
人工智能·人机交互·aaai·普适计算
zhenxin012213 小时前
GPU算力梯队:从入门到超算的AI任务匹配指南
人工智能·gpu算力
MediaTea13 小时前
AI 术语通俗词典:F1 值(分类)
人工智能·算法·机器学习·分类·数据挖掘