SPT:选择性提示调优——让模型自动学习最佳提示插入策略

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

📖 摘要与核心思想

SPT(Selective Prompt Tuning) 是一种创新的参数高效微调(Parameter-Efficient Tuning, PETuning)方法,它通过自动学习在预训练模型(PTM)的哪些中间层插入实例感知的软提示 ,解决了传统提示微调中人工选择提示层的局限性。传统方法通常依赖启发式策略,性能受限且收敛慢,而SPT引入了提示超网络双级优化,能够根据下游任务自适应地选择最合适的提示层,在保证参数效率的同时,显著提升模型性能。

  • 🧩 核心动机 :人工选择提示插入层并非最优,限制了提示微调的潜力。SPT通过可学习的概率门控制提示层的选择,实现自动化、实例感知的提示插入。
  • 🚀 主要贡献
    • 提出选择性提示调优框架,自动学习最佳提示插入策略。
    • 引入SPT-DARTS优化技术,改进提示超网络的训练稳定性。
    • 在多个文本分类任务和预训练模型上验证了有效性,尤其在小样本场景表现卓越。

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

往期文章推荐:

📚 出处
  • 论文标题Improving Prompt Tuning with Learned Prompting Layers
🏗️ 技术原理深度解析
1. 🔍 传统提示微调的局限性

传统的提示微调(Prompt Tuning)主要在输入词嵌入层添加可训练的软提示(Soft Prompts),但存在两大瓶颈:

  • 性能较低与收敛慢:仅优化输入层提示,难以深度引导模型高层语义表示。
  • 人工选择提示层的次优性:现有方法要么在所有层添加提示(参数量大),要么基于启发式规则选择部分层,缺乏任务自适应性。
2. 💡 SPT的核心架构

SPT框架包含两个核心组件:提示生成器提示超网络

  • 提示生成器:为每个候选层生成实例感知的软提示。
  • 提示超网络:通过可学习的概率门,自动选择对当前任务最重要的层插入提示。
3. ⚙️ 双级优化与概率门机制

SPT通过双级优化 同时训练提示生成器参数和结构参数:

  • 概率门设计 :每层有一个可学习的门参数 g l g_l gl,通过Sigmoid函数控制该层提示生成器的激活概率:
    p l = sigmoid ( g l ) p_l = \text{sigmoid}(g_l) pl=sigmoid(gl)

    优化过程中, p l p_l pl 会趋向0或1,实现提示层的自动选择。

  • 优化目标
    min ⁡ θ L val ( ω ∗ ( θ ) , θ ) \min_{\theta} \mathcal{L}{\text{val}}(\omega^*(\theta), \theta) θminLval(ω∗(θ),θ)
    s.t. ω ∗ ( θ ) = arg ⁡ min ⁡ ω L train ( ω , θ ) \text{s.t.} \quad \omega^*(\theta) = \arg\min
    {\omega} \mathcal{L}_{\text{train}}(\omega, \theta) s.t.ω∗(θ)=argωminLtrain(ω,θ)

    其中 ω \omega ω 是提示生成器参数, θ \theta θ 是结构参数。

4. 🛠️ SPT-DARTS:改进的优化策略

为解决DARTS优化不稳定的问题,SPT引入了两项技术创新:

  • 重参数化概率门:解耦前向传播与梯度计算,稳定训练。
  • 架构一致性学习:通过一致性正则化,确保超网络与最终稀疏模型输出一致。
📊 实验性能与实证分析
小样本学习场景

在少样本设置下(每类仅16个样本),SPT在10个文本分类任务上平均表现优于全参数微调和其他PETuning方法,仅训练0.5%-1% 的参数。

全数据场景

即使在全数据设置下,SPT仍能保持竞争力,在RoBERTa-large模型上达到与全参数微调相当的性能,而参数效率提升超过90%

提示层选择模式分析

通过分析学习到的提示层分布,发现了一些有趣模式:

  • 嵌入层和底层Transformer (第0-4层)常被选为提示层,表明浅层表示对任务适应很重要
  • 中间层(第10-19层) 在RoBERTa-large中频繁被选,这些层可能包含丰富的语义信息。
  • 最后四层往往被SPT丢弃,表明高层表示可能已足够任务特定。
🌐 实际应用场景

SPT特别适合以下场景:

  • 🔧 资源受限环境:当GPU内存或存储有限时,SPT提供高效的参数利用。
  • 🚀 快速模型适配:需要为多个下游任务快速定制模型的应用。
  • 📚 小样本学习:标注数据稀缺的领域,如医疗文本、法律文档分析。
⚖️ 与传统方法对比
特性 传统提示微调 全参数微调 SPT
参数效率 非常高
性能 中等 接近全微调
自动化程度
训练稳定性 中等
💎 总结

SPT通过自动学习提示插入策略 ,解决了传统提示微调的关键瓶颈,在参数效率与性能 之间取得了卓越平衡。其核心创新在于将提示层选择 形式化为可优化问题,并通过双级优化和一致性学习确保训练稳定性。实验证明,SPT在全数据和小样本场景下均能实现强劲性能,为参数高效微调提供了新范式。

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

相关推荐
夫唯不争,故无尤也2 小时前
PyTorch中张量和模型的核心属性解析
人工智能·pytorch·深度学习
钛投标免费AI标书工具2 小时前
AI标书vs人工标书,到底哪个好?
人工智能
鲸鱼在dn2 小时前
大型语言模型推理能力评估——李宏毅2025大模型课程第9讲内容
人工智能·语言模型·自然语言处理
笨鸟笃行2 小时前
人工智能备考小结篇(后续会更新对应的题解)
人工智能
不当菜鸡的程序媛2 小时前
Flow Matching|什么是“预测速度场 vt=ε−x”?
人工智能·算法·机器学习
kyle~2 小时前
数学基础---四元数
人工智能·数学·机器人·旋转
PKNLP2 小时前
14.大语言模型微调语料构建
人工智能·语言模型·模型微调
Wu Liuqi2 小时前
【大模型学习4】大语言模型(LLM)详解
人工智能·学习·语言模型·大模型
SEOETC2 小时前
AIGC|杭州AI优化企业新榜单与选择指南
人工智能·ai·aigc