Lost in the Middle: How Language Models Use Long Contexts

本文是LLM系列文章,针对《Lost in the Middle: How Language Models Use Long Contexts》的翻译。

迷失在中间:语言模型如何使用长上下文

  • 摘要
  • [1 引言](#1 引言)
  • [2 语言模型](#2 语言模型)
  • [3 多文档问答](#3 多文档问答)
  • [4 语言模型如何从输入上下文中检索?](#4 语言模型如何从输入上下文中检索?)
  • [5 为什么语言模型很难使用它们的整个输入上下文?](#5 为什么语言模型很难使用它们的整个输入上下文?)
  • [6 更多的背景总是更好吗?开放领域QA案例研究](#6 更多的背景总是更好吗?开放领域QA案例研究)
  • [7 相关工作](#7 相关工作)
  • [8 结论](#8 结论)

摘要

虽然最近的语言模型能够将长上下文作为输入,但人们对它们使用长上下文的情况知之甚少。我们分析了语言模型在两项任务中的性能,这两项任务需要在输入上下文中识别相关信息:多文档问答和键值检索。我们发现,当相关信息出现在输入上下文的开头或结尾时,性能通常最高,而当模型必须在长上下文的中间访问相关信息时,性能会显著降低。此外,即使对于显式长上下文模型,性能也会随着输入上下文的增长而显著降低。我们的分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

1 引言

2 语言模型

3 多文档问答

4 语言模型如何从输入上下文中检索?

5 为什么语言模型很难使用它们的整个输入上下文?

6 更多的背景总是更好吗?开放领域QA案例研究

7 相关工作

8 结论

我们通过一系列对照实验,实证研究了语言模型如何使用长输入上下文,这两项任务需要在上下文中识别和使用相关信息:多文档问答和键值检索。我们发现,语言模型通常很难在长输入上下文中使用信息,并且随着输入上下文的增长,性能会下降。我们对(i)模型架构、(ii)查询感知上下文化和(iii)指令调整的作用进行了初步调查,以更好地了解这些因素中的每一个可能如何影响语言模型如何使用上下文。最后,我们通过一个开放领域问答的实际案例研究得出结论,发现语言模型读者的表现在检索者回忆之前就已经饱和了。我们的结果和分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

相关推荐
会飞的老朱2 小时前
医药集团数智化转型,智能综合管理平台激活集团管理新效能
大数据·人工智能·oa协同办公
聆风吟º4 小时前
CANN runtime 实战指南:异构计算场景中运行时组件的部署、调优与扩展技巧
人工智能·神经网络·cann·异构计算
Codebee6 小时前
能力中心 (Agent SkillCenter):开启AI技能管理新时代
人工智能
聆风吟º7 小时前
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径
人工智能·深度学习·神经网络·cann
uesowys7 小时前
Apache Spark算法开发指导-One-vs-Rest classifier
人工智能·算法·spark
AI_56787 小时前
AWS EC2新手入门:6步带你从零启动实例
大数据·数据库·人工智能·机器学习·aws
User_芊芊君子7 小时前
CANN大模型推理加速引擎ascend-transformer-boost深度解析:毫秒级响应的Transformer优化方案
人工智能·深度学习·transformer
智驱力人工智能7 小时前
小区高空抛物AI实时预警方案 筑牢社区头顶安全的实践 高空抛物检测 高空抛物监控安装教程 高空抛物误报率优化方案 高空抛物监控案例分享
人工智能·深度学习·opencv·算法·安全·yolo·边缘计算
qq_160144877 小时前
亲测!2026年零基础学AI的入门干货,新手照做就能上手
人工智能
Howie Zphile7 小时前
全面预算管理难以落地的核心真相:“完美模型幻觉”的认知误区
人工智能·全面预算