Introducing Language Guidance in Prompt-based Continual Learning

本文是LLM系列文章,针对《Introducing Language Guidance in Prompt-based Continual Learning》的翻译。

基于提示的持续学习中引入语言指导

  • 摘要
  • [1 引言](#1 引言)
  • [2 相关工作](#2 相关工作)
  • [3 背景](#3 背景)
  • [4 基于提示的持续学习语言指导](#4 基于提示的持续学习语言指导)
  • [5 实验](#5 实验)
  • [6 结论](#6 结论)

摘要

持续学习旨在学习一系列任务的单一模型,而无需访问以前任务的数据。该领域最大的挑战仍然是灾难性的遗忘:早期任务的可见类的性能损失。一些现有的方法依赖于昂贵的重放缓冲区来存储以前任务的数据块。这虽然很有前景,但当任务数量变大或由于隐私原因无法存储数据时,成本会变得很高。作为替代方案,已经提出了将任务信息存储在可学习提示池中的基于提示的方法。此提示池指示冻结图像编码器如何解决每个任务。虽然在这种设置下,模型在每个任务中都面临一组不相交的类,但我们认为这些类可以被编码到预先训练的语言编码器的相同嵌入空间中。在这项工作中,我们提出了基于提示的持续学习的语言指导(LGCL),作为基于提示的方法的插件。LGCL与模型无关,在提示池的任务级别和视觉编码器的输出特性的类级别引入了语言指导。我们通过大量实验表明,LGCL不断提高基于提示的连续学习方法的性能,从而开创了新的技术水平。LGCL在不需要任何额外的可学习参数的情况下实现了这些性能改进。

1 引言

2 相关工作

3 背景

4 基于提示的持续学习语言指导

5 实验

6 结论

在这项工作中,我们引入了一个新的视角,即在基于提示的持续学习中引入语言指导。我们的方法背后的关键直觉是,即使任务分布在任务之间发生变化,它们的标签空间也可以映射到相同的语言空间。一个能够学会映射到这个空间的模型可以减轻灾难性的遗忘,从而提高性能。我们在两个层面引入语言指导;即任务级别和类级别。在任务级别,我们为提示池引入了语言指导,在提示池中,模型需要为预先训练的视觉转换器的类条件反射选择相关提示。通过改进提示池的密钥查找,我们可以使模型在不同的任务中更加健壮。为此,我们鼓励模型将键映射到其各自的任务级语言表示。其次,我们在视觉转换器的输出特性中引入了类级别的语言指导。在这个阶段,我们激励模型将输出特征映射到类级别的语言表示。在没有任何额外学习参数的情况下,我们的方法提高了基于基线提示的连续学习方法的性能,创造了新的技术水平。

相关推荐
薛定猫AI3 分钟前
【深度解析】从订阅到按量计费:新一代 AI 代理工作流的成本优化与多模型路由实战
人工智能
独隅7 分钟前
在 MacOS 上部署 Keras 模型的全面指南
人工智能·macos·keras
推理幻觉9 分钟前
Codex / OpenCode / Cursor / OpenClaw 对比指南
人工智能·开源·codex
l1t10 分钟前
修改OraDB-DUMP-Viewer-3.1.1的windows dll 版本test_export示例为Linux
linux·人工智能·windows·oracle
暂未成功人士!13 分钟前
语义分割标注工具(isat-sam):利用 AI 辅助完成深度学习语义分割的图像数据标注
人工智能·深度学习·语义分割·数据标注
多年小白13 分钟前
AI 日报 - 2026年4月6日
网络·人工智能·科技·矩阵
云上码厂14 分钟前
SOLIDWORKS 2025 全套工具深度解析:从设计到管理全流程攻略
人工智能·仿真
最初的↘那颗心16 分钟前
Prompt基础功:角色分工与样本策略——System Prompt与Few-Shot实战
大模型·llm·prompt·few-shot·spring ai
最初的↘那颗心19 分钟前
Prompt工程化实战:模板管理、版本控制、A/B测试与调试
大模型·prompt·版本控制·spring ai·a/b测试
枫叶林FYL23 分钟前
【Python高级工程与架构实战】项目三:实时数据管道(Kafka + Polars + Delta Lake)(二)
人工智能·机器学习