SPT:选择性提示调优——让模型自动学习最佳提示插入策略

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

📖 摘要与核心思想

SPT(Selective Prompt Tuning) 是一种创新的参数高效微调(Parameter-Efficient Tuning, PETuning)方法,它通过自动学习在预训练模型(PTM)的哪些中间层插入实例感知的软提示 ,解决了传统提示微调中人工选择提示层的局限性。传统方法通常依赖启发式策略,性能受限且收敛慢,而SPT引入了提示超网络双级优化,能够根据下游任务自适应地选择最合适的提示层,在保证参数效率的同时,显著提升模型性能。

  • 🧩 核心动机 :人工选择提示插入层并非最优,限制了提示微调的潜力。SPT通过可学习的概率门控制提示层的选择,实现自动化、实例感知的提示插入。
  • 🚀 主要贡献
    • 提出选择性提示调优框架,自动学习最佳提示插入策略。
    • 引入SPT-DARTS优化技术,改进提示超网络的训练稳定性。
    • 在多个文本分类任务和预训练模型上验证了有效性,尤其在小样本场景表现卓越。

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

往期文章推荐:

📚 出处
  • 论文标题Improving Prompt Tuning with Learned Prompting Layers
🏗️ 技术原理深度解析
1. 🔍 传统提示微调的局限性

传统的提示微调(Prompt Tuning)主要在输入词嵌入层添加可训练的软提示(Soft Prompts),但存在两大瓶颈:

  • 性能较低与收敛慢:仅优化输入层提示,难以深度引导模型高层语义表示。
  • 人工选择提示层的次优性:现有方法要么在所有层添加提示(参数量大),要么基于启发式规则选择部分层,缺乏任务自适应性。
2. 💡 SPT的核心架构

SPT框架包含两个核心组件:提示生成器提示超网络

  • 提示生成器:为每个候选层生成实例感知的软提示。
  • 提示超网络:通过可学习的概率门,自动选择对当前任务最重要的层插入提示。
3. ⚙️ 双级优化与概率门机制

SPT通过双级优化 同时训练提示生成器参数和结构参数:

  • 概率门设计 :每层有一个可学习的门参数 g l g_l gl,通过Sigmoid函数控制该层提示生成器的激活概率:
    p l = sigmoid ( g l ) p_l = \text{sigmoid}(g_l) pl=sigmoid(gl)

    优化过程中, p l p_l pl 会趋向0或1,实现提示层的自动选择。

  • 优化目标
    min ⁡ θ L val ( ω ∗ ( θ ) , θ ) \min_{\theta} \mathcal{L}{\text{val}}(\omega^*(\theta), \theta) θminLval(ω∗(θ),θ)
    s.t. ω ∗ ( θ ) = arg ⁡ min ⁡ ω L train ( ω , θ ) \text{s.t.} \quad \omega^*(\theta) = \arg\min
    {\omega} \mathcal{L}_{\text{train}}(\omega, \theta) s.t.ω∗(θ)=argωminLtrain(ω,θ)

    其中 ω \omega ω 是提示生成器参数, θ \theta θ 是结构参数。

4. 🛠️ SPT-DARTS:改进的优化策略

为解决DARTS优化不稳定的问题,SPT引入了两项技术创新:

  • 重参数化概率门:解耦前向传播与梯度计算,稳定训练。
  • 架构一致性学习:通过一致性正则化,确保超网络与最终稀疏模型输出一致。
📊 实验性能与实证分析
小样本学习场景

在少样本设置下(每类仅16个样本),SPT在10个文本分类任务上平均表现优于全参数微调和其他PETuning方法,仅训练0.5%-1% 的参数。

全数据场景

即使在全数据设置下,SPT仍能保持竞争力,在RoBERTa-large模型上达到与全参数微调相当的性能,而参数效率提升超过90%

提示层选择模式分析

通过分析学习到的提示层分布,发现了一些有趣模式:

  • 嵌入层和底层Transformer (第0-4层)常被选为提示层,表明浅层表示对任务适应很重要
  • 中间层(第10-19层) 在RoBERTa-large中频繁被选,这些层可能包含丰富的语义信息。
  • 最后四层往往被SPT丢弃,表明高层表示可能已足够任务特定。
🌐 实际应用场景

SPT特别适合以下场景:

  • 🔧 资源受限环境:当GPU内存或存储有限时,SPT提供高效的参数利用。
  • 🚀 快速模型适配:需要为多个下游任务快速定制模型的应用。
  • 📚 小样本学习:标注数据稀缺的领域,如医疗文本、法律文档分析。
⚖️ 与传统方法对比
特性 传统提示微调 全参数微调 SPT
参数效率 非常高
性能 中等 接近全微调
自动化程度
训练稳定性 中等
💎 总结

SPT通过自动学习提示插入策略 ,解决了传统提示微调的关键瓶颈,在参数效率与性能 之间取得了卓越平衡。其核心创新在于将提示层选择 形式化为可优化问题,并通过双级优化和一致性学习确保训练稳定性。实验证明,SPT在全数据和小样本场景下均能实现强劲性能,为参数高效微调提供了新范式。

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

相关推荐
数据与后端架构提升之路5 分钟前
感知模块详解:从 OpenCV/YOLO 脚本到 多模态多任务 BEV 架构
人工智能·机器学习·自动驾驶
咚咚王者9 分钟前
人工智能之数据分析 Matplotlib:第五章 常见函数
人工智能·数据分析·matplotlib
天天找自己15 分钟前
TransNeXt 深度解析:聚合注意力机制的突破性视觉骨干网络
人工智能·pytorch·python·深度学习·神经网络
iiiiii1120 分钟前
【论文阅读笔记】IDAQ:离线元强化学习中的分布内在线适应
论文阅读·人工智能·笔记·学习·算法·机器学习·强化学习
Cleaner22 分钟前
大模型的手和脚:从提示工程到 MCP
人工智能·llm·mcp
极客BIM工作室25 分钟前
Sora模型双路径压缩网络详解
人工智能·深度学习
DeepFlow 零侵扰全栈可观测31 分钟前
DeepFlow 全栈可观测性 护航某银行核心系统全生命周期
数据库·人工智能·分布式·云原生·金融
哈哈哈也不行吗39 分钟前
从入门到精通:大角几何在教学中的深度应用
人工智能·几何画板·几何绘图·大角几何·数学绘图工具
也不知秋39 分钟前
巧用 AI 提升 Excel 工作效率
人工智能
szxinmai主板定制专家1 小时前
基于x86和ARM的EtherCAT运动控制器,最大支持32轴,支持codesys和实时系统优化
arm开发·人工智能·嵌入式硬件·yolo