LLM论文笔记 27: Looped Transformers for Length Generalization

  • Arxiv日期:2024.9.25

关键词

  • 长度泛化

  • transformer结构优化

核心结论

  1. RASP-L限制transformer无法处理包含循环的任务的长度泛化

  2. Loop Transformer显著提升了长度泛化能力

  • Input Injection显著提升了模型的长度泛化性能,尤其在二进制加法等复杂任务上效果显著

  • 在推理中,通过输出置信度判断迭代停止点的策略能够实现接近最佳的性能

主要方法

Transformer在长度泛化(length generalization)上表现有限,尤其是对未见长度的输入。本文重点研究解决这一问题的Loop Transformer架构(Looped Transformers),通过循环处理增加模型对输入长度的适应能力。

n-RASP-L问题 :(=n循环RASP-L问 )定义了一类任务,这些任务可以通过多次迭代应用某些基础操作(RASP-L操作)来解决。这些任务包括复制、求和、二进制加法等。

本质上是将内部无法处理的循环替换到外部,做到"n次transformer"

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
愚公搬代码16 小时前
【愚公系列】《扣子开发 AI Agent 智能体应用》003-扣子 AI 应用开发平台介绍(选择扣子的理由)
人工智能
老王熬夜敲代码16 小时前
网络中数据传输的具体过程
linux·网络·笔记
lhrimperial17 小时前
AI工程化实践指南:从入门到落地
人工智能
charlie11451419117 小时前
现代C++嵌入式教程:C++98基础特性:从C到C++的演进(1)
c语言·开发语言·c++·笔记·学习·教程
jifengzhiling17 小时前
零极点对消:原理、作用与风险
人工智能·算法
科技看点17 小时前
想帮帮服务智能体荣获2025 EDGE AWARDS「最佳AI创新应用」大奖
人工智能
m0_7048878917 小时前
DAY 40
人工智能·深度学习
Katecat9966317 小时前
【海滩垃圾检测与分类识别-基于改进YOLO13-seg-iRMB模型】
人工智能·数据挖掘
汤愈韬17 小时前
TK_网络基础和常见攻击(笔记)
网络·笔记