Lost in the Middle: How Language Models Use Long Contexts

本文是LLM系列文章,针对《Lost in the Middle: How Language Models Use Long Contexts》的翻译。

迷失在中间:语言模型如何使用长上下文

  • 摘要
  • [1 引言](#1 引言)
  • [2 语言模型](#2 语言模型)
  • [3 多文档问答](#3 多文档问答)
  • [4 语言模型如何从输入上下文中检索?](#4 语言模型如何从输入上下文中检索?)
  • [5 为什么语言模型很难使用它们的整个输入上下文?](#5 为什么语言模型很难使用它们的整个输入上下文?)
  • [6 更多的背景总是更好吗?开放领域QA案例研究](#6 更多的背景总是更好吗?开放领域QA案例研究)
  • [7 相关工作](#7 相关工作)
  • [8 结论](#8 结论)

摘要

虽然最近的语言模型能够将长上下文作为输入,但人们对它们使用长上下文的情况知之甚少。我们分析了语言模型在两项任务中的性能,这两项任务需要在输入上下文中识别相关信息:多文档问答和键值检索。我们发现,当相关信息出现在输入上下文的开头或结尾时,性能通常最高,而当模型必须在长上下文的中间访问相关信息时,性能会显著降低。此外,即使对于显式长上下文模型,性能也会随着输入上下文的增长而显著降低。我们的分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

1 引言

2 语言模型

3 多文档问答

4 语言模型如何从输入上下文中检索?

5 为什么语言模型很难使用它们的整个输入上下文?

6 更多的背景总是更好吗?开放领域QA案例研究

7 相关工作

8 结论

我们通过一系列对照实验,实证研究了语言模型如何使用长输入上下文,这两项任务需要在上下文中识别和使用相关信息:多文档问答和键值检索。我们发现,语言模型通常很难在长输入上下文中使用信息,并且随着输入上下文的增长,性能会下降。我们对(i)模型架构、(ii)查询感知上下文化和(iii)指令调整的作用进行了初步调查,以更好地了解这些因素中的每一个可能如何影响语言模型如何使用上下文。最后,我们通过一个开放领域问答的实际案例研究得出结论,发现语言模型读者的表现在检索者回忆之前就已经饱和了。我们的结果和分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

相关推荐
bu_shuo5 分钟前
将AI生成的数学公式正确复制到word中
人工智能·chatgpt·word·latex
AI科技星8 分钟前
光速飞行器动力学方程的第一性原理推导、验证与范式革命
数据结构·人工智能·线性代数·算法·机器学习·概率论
摘星编程11 分钟前
RAG的下一站:检索增强生成如何重塑企业知识中枢?
android·人工智能
Aaron_94513 分钟前
BitNet:1-bit大语言模型的高效推理框架详解
人工智能·语言模型·自然语言处理
wenzhangli714 分钟前
「1+3 架构驱动」OoderAI 企业级解决方案:破解 AI 落地三大痛点,实现能力可控、交互智能与代码一致
人工智能
视觉&物联智能18 分钟前
【杂谈】-人工智能在风险管理中的应用:愿景与现实的差距
人工智能·网络安全·ai·aigc·agi
寻星探路22 分钟前
【算法通关】双指针技巧深度解析:从基础到巅峰(Java 最优解)
java·开发语言·人工智能·python·算法·ai·指针
知识分享小能手24 分钟前
Ubuntu入门学习教程,从入门到精通,Ubuntu 22.04中的人工智能—— 知识点详解 (25)
人工智能·学习·ubuntu
cyyt25 分钟前
深度学习周报(1.05~1.11)
人工智能·深度学习
Destiny_where29 分钟前
Claude VSCode插件版接入强大的GLM(无需登录注册claude code)
ide·人工智能·vscode·编辑器·claude code