Lost in the Middle: How Language Models Use Long Contexts

本文是LLM系列文章,针对《Lost in the Middle: How Language Models Use Long Contexts》的翻译。

迷失在中间:语言模型如何使用长上下文

  • 摘要
  • [1 引言](#1 引言)
  • [2 语言模型](#2 语言模型)
  • [3 多文档问答](#3 多文档问答)
  • [4 语言模型如何从输入上下文中检索?](#4 语言模型如何从输入上下文中检索?)
  • [5 为什么语言模型很难使用它们的整个输入上下文?](#5 为什么语言模型很难使用它们的整个输入上下文?)
  • [6 更多的背景总是更好吗?开放领域QA案例研究](#6 更多的背景总是更好吗?开放领域QA案例研究)
  • [7 相关工作](#7 相关工作)
  • [8 结论](#8 结论)

摘要

虽然最近的语言模型能够将长上下文作为输入,但人们对它们使用长上下文的情况知之甚少。我们分析了语言模型在两项任务中的性能,这两项任务需要在输入上下文中识别相关信息:多文档问答和键值检索。我们发现,当相关信息出现在输入上下文的开头或结尾时,性能通常最高,而当模型必须在长上下文的中间访问相关信息时,性能会显著降低。此外,即使对于显式长上下文模型,性能也会随着输入上下文的增长而显著降低。我们的分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

1 引言

2 语言模型

3 多文档问答

4 语言模型如何从输入上下文中检索?

5 为什么语言模型很难使用它们的整个输入上下文?

6 更多的背景总是更好吗?开放领域QA案例研究

7 相关工作

8 结论

我们通过一系列对照实验,实证研究了语言模型如何使用长输入上下文,这两项任务需要在上下文中识别和使用相关信息:多文档问答和键值检索。我们发现,语言模型通常很难在长输入上下文中使用信息,并且随着输入上下文的增长,性能会下降。我们对(i)模型架构、(ii)查询感知上下文化和(iii)指令调整的作用进行了初步调查,以更好地了解这些因素中的每一个可能如何影响语言模型如何使用上下文。最后,我们通过一个开放领域问答的实际案例研究得出结论,发现语言模型读者的表现在检索者回忆之前就已经饱和了。我们的结果和分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

相关推荐
ChrisitineTX几秒前
万字硬核拆解:Gemini 3.0 架构革新,多模态原生模型的天花板被捅破了?(1)
人工智能·架构
小白狮ww1 分钟前
从几秒走向几分钟:长视频生成进入 LongCat 时刻
人工智能·深度学习·音视频·文生视频·图片处理·视频生成·图生视频
zhangfeng11331 分钟前
百度免费大模型API深度解析 大厂llm大模型市场国产大模型API免费全平台对比指南,薅羊毛指南与实战建议 政策深度解析与
人工智能·百度·dubbo·生物信息
ar01233 分钟前
智慧医疗下的AR远程协助应用前景
人工智能·ar
IT观测3 分钟前
估图数科“闪估”AI智能体平台,荣膺2025年人工智能大模型金融创新大赛“标杆解决方案”
人工智能·金融
love530love3 分钟前
【实践指南】Windows 下 Stable Diffusion WebUI 与 ComfyUI 模型库“完美共存”指南
人工智能·windows·python·stable diffusion·大模型·aigc·comfyui
数新网络3 分钟前
CyberAI多模态数据平台焕新升级!七大核心功能解锁高效管理新体验
java·网络·人工智能
Francek Chen4 分钟前
Francek Chen 的730天创作纪念日
大数据·人工智能·学习·程序人生·创作纪念日
zhaodiandiandian4 分钟前
工业智能化:从自动化到自主化的升级之路
运维·人工智能·自动化
GitCode官方5 分钟前
做难而正确的 AI Infra 创新——专访国产大模型推理引擎 xLLM 社区负责人刘童璇
人工智能·开源·活动·xllm·atomgit