Life long learning

现象:一个model进行multi-task learning做的还可以,说明模型是可以同时学会多个任务的,但是如果训练过程是1个task 1个task的顺序进行,模型就会发生灾难性的遗忘现象,只会做刚学完的task。

目标:让模型不要那么快忘掉过去学到的东西

upper bound:multi-task learning,能不忘并达到multi-task learning水平就是很厉害了。

方法一:Selective Synaptic Plasticity

在下一个task训练的时候要让模型尽可能少的调整对上一个task重要的parameter

参数bi衡量参数对上一个任务的重要性,可以通过调整一下θbi看看上一个task的loss变化大还是小来确定(bi是超参数,人为预先设定,task2 train的时候是不变的)

方法二:Gradient Episodic Memory (GEM)

保存上一个task的少量训练资料,以在新的task每次调整梯度的时候都可以回头算一下上一个task此时的梯度,然后将新旧梯度结合(新梯度为主,这种方法有点像作弊,直接就在进行multi-task learning了,但是区别是它只用上一个task一点点资料来计算个梯度)

相关推荐
Loo国昌8 分钟前
【AI应用开发实战】09_Prompt工程与模板管理:构建可演进的LLM交互层
大数据·人工智能·后端·python·自然语言处理·prompt
新缸中之脑19 分钟前
Wellows:生成式AI搜索优化平台
人工智能·chatgpt
aiAIman21 分钟前
OpenClaw 使用和管理 MCP 完全指南
人工智能·语言模型·开源
lusasky29 分钟前
对比ZeroClaw 和 OpenClaw
人工智能
Clarence Liu30 分钟前
用大白话讲解人工智能(16) 强化学习:教AI“玩游戏“学决策
人工智能·玩游戏
田里的水稻33 分钟前
FA_建图和定位(ML)-超宽带(UWB)定位
人工智能·算法·数学建模·机器人·自动驾驶
罗政34 分钟前
AI批量识别社保卡信息实战:一键提取姓名、卡号、银行账号到Excel
人工智能
liliangcsdn1 小时前
基于似然比的显著图可解释性方法的探索
人工智能·算法·机器学习
正宗咸豆花1 小时前
Gemini 3.1 Pro架构深度解析与AGI能力评测
人工智能·架构·agi
systeminof1 小时前
OpenClaw极速进化:20天迭代10余次,接入Gemini 3.1与Apple Watch
人工智能·chatgpt·ai编程