LLM论文笔记 27: Looped Transformers for Length Generalization

  • Arxiv日期:2024.9.25

关键词

  • 长度泛化

  • transformer结构优化

核心结论

  1. RASP-L限制transformer无法处理包含循环的任务的长度泛化

  2. Loop Transformer显著提升了长度泛化能力

  • Input Injection显著提升了模型的长度泛化性能,尤其在二进制加法等复杂任务上效果显著

  • 在推理中,通过输出置信度判断迭代停止点的策略能够实现接近最佳的性能

主要方法

Transformer在长度泛化(length generalization)上表现有限,尤其是对未见长度的输入。本文重点研究解决这一问题的Loop Transformer架构(Looped Transformers),通过循环处理增加模型对输入长度的适应能力。

n-RASP-L问题 :(=n循环RASP-L问 )定义了一类任务,这些任务可以通过多次迭代应用某些基础操作(RASP-L操作)来解决。这些任务包括复制、求和、二进制加法等。

本质上是将内部无法处理的循环替换到外部,做到"n次transformer"

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关推荐
难评哥1 分钟前
2026年会议纪要工具top9_工具_测评_ASR
人工智能
得物技术2 分钟前
入选AAAI-PerFM|得物社区推荐之基于大语言模型的新颖性推荐算法
人工智能·语言模型·推荐算法
狐572 分钟前
2026-01-19-论文阅读-Agentic-Reasoning-for-Large-Language-Models
论文阅读·笔记
APIshop3 分钟前
示例代码解析:使用 item_get_video_pro 获取小红书笔记详情
数据库·笔记
双层吉士憨包4 分钟前
如何安全抓取SoundCloud数据用于音频 AI 模型训练?
人工智能
世优科技虚拟人4 分钟前
智慧文旅体验新引擎:世优科技“数字人+”战略全场景落地实践
人工智能·科技·大模型·数字人·智慧展厅
Jack___Xue6 分钟前
LLM知识随笔(二)--BERT
人工智能·深度学习·bert
啊阿狸不会拉杆7 分钟前
《机器学习》第 8 章 - 常用深度网络模型
网络·人工智能·深度学习·机器学习·ai·cnn·ml
EEPI8 分钟前
论文阅读汇总
论文阅读
赋创小助手9 分钟前
NVIDIA H100与GH200选型指南:AI与HPC负载的硬件适配方案
服务器·人工智能·深度学习·神经网络·语言模型·自然语言处理·tensorflow