论文略读:Prefix-Tuning: Optimizing Continuous Prompts for Generation

2021 ACL

  • 固定预训练LM,为LM添加可训练,任务特定的前缀
    • 这样就可以为不同任务保存不同的前缀
    • 这种前缀可以看成连续可微的soft prompt,相比于离散的token,更好优化,效果更好
  • 训练的时候只需要更新prefix部分的参数,固定LM部分的参数即可
  • 对于自回归模型,在句子前面添加前缀,得到 z = [PREFIX; x; y]
  • 对于encoder-decoder模型:Encoder和Decoder都增加了前缀,得到 z = [PREFIX; x; PREFIX0; y]
    • Encoder端增加前缀是为了引导输入部分的编码
    • Decoder 端增加前缀是为了引导后续token的生成
    • Prefix-tuning略优于Infix-tuning
      • Infix-tuning形式为 [x; INFIX; y]
      • Prefix-tuning形式为 [PREFIX; x; y]
  • 直接学习参数效果不好,需要使用MLP对Pθ进行reparameter修正
    • Pθ[i,:] = MLP(Pθ'[i,:])
相关推荐
风象南2 小时前
OpenClaw 登顶 GitHub Star 榜首:一个程序员 13 年后的"重新点火"故事
人工智能·后端
TF男孩11 小时前
重新认识Markdown:它不仅是排版工具,更是写Prompt的最佳结构
人工智能
想打游戏的程序猿12 小时前
AI时代的内容输出
人工智能
小兵张健12 小时前
Playwright MCP 截图标注方案调研:推荐方案 1
人工智能
凌杰14 小时前
AI 学习笔记:Agent 的能力体系
人工智能
IT_陈寒15 小时前
React状态管理终极对决:Redux vs Context API谁更胜一筹?
前端·人工智能·后端
舒一笑16 小时前
如何获取最新的技术趋势和热门技术
人工智能·程序员
聚客AI17 小时前
🎉OpenClaw深度解析:多智能体协同的三种模式、四大必装技能与自动化运维秘籍
人工智能·开源·agent
黄粱梦醒17 小时前
大模型企业级部署方案-vllm
人工智能·llm
IT_陈寒17 小时前
JavaScript代码效率提升50%?这5个优化技巧你必须知道!
前端·人工智能·后端