【AI】LLM上下文拼接

在底层,绝大多数 LLM API 都是"无状态的" (Stateless)。这意味着对大模型来说,你的每一次 API 调用确实都是一个刚刚经历过记忆清除的"新窗口"。

既然大模型每次都会失忆,那么我们在网页版里体验到的"上下文连贯"是怎么做到的呢?答案在于客户端(也就是网页前端或者你写的代码)的本地缓存和历史记录拼接

以下是你使用 API 时管理和确认上下文的具体机制:

1. 聊天记录是由你的代码"背着"一起发过去的

当你通过 API 进行多轮对话时,你不能只发送当前的新问题,你必须把之前的**全部历史对话(包括你的问题和模型的回答)**打包成一个数组(或列表),每次调用时完整地传给大模型。

举个例子:

  • 第一轮调用 API: 你发送 [{"role": "user", "content": "你好,我是张三"}]。模型回答"你好,张三"。
  • 第二轮调用 API: 如果你只发 [{"role": "user", "content": "我叫什么名字?"}],模型会回答不知道。
  • 正确的第二轮调用: 你必须发送 [{"role": "user", "content": "你好,我是张三"}, {"role": "model", "content": "你好,张三"}, {"role": "user", "content": "我叫什么名字?"}]。模型通过阅读前面两句的"历史记录",才能回答出"你叫张三"。

2. 怎么确定 LLM 考虑到了上下文?

在使用 API 时,确定 LLM 是否考虑到上下文的唯一标准,就是检查你发送的 Request Payload(请求体)中是否包含了之前的消息数组

只要你按顺序把之前的对话喂给了它,它就必然会结合这些上下文来生成下一次的回复。

3. API SDK 的"语法糖"

虽然底层原理是每次都要手动拼接历史记录发过去,但这在写代码时很繁琐。因此,官方提供的 SDK(比如 Python 库)通常会提供一些封装好的对象来帮你自动管理上下文。

以 Gemini 的官方 SDK 为例,它有一个 ChatSession 对象。当你使用 chat.send_message("新问题") 时,这个对象会在底层自动帮你把之前保存在内存里的历史记录拼接好,一起发送给 API 端点。对你来说感觉像是在一个"窗口"里聊天,但本质上依然是每次发送越来越长的历史包。

⚠️ 一个重要的副作用:Token 消耗会像滚雪球一样

因为你每次都要把历史记录完整发一遍,这就导致了一个关键问题:上下文越长,每次请求消耗的 Token 就越多。网页版对话越到后面反应越慢、越容易报错或者达到长度上限,也是因为这个底层机制。

相关推荐
fengxin_rou2 小时前
redis主从和集群一致性、哨兵机制详解
java·开发语言·数据库·redis·缓存
对酒当歌丶人生几何2 小时前
Spring异步体系与事务一致性实战指南
java·spring·eventlistener
leo__5202 小时前
基于C#与HALCON开发的完整视觉检测系统案例
开发语言·c#·视觉检测
这也能行2 小时前
Tomcat
java·tomcat
小杍随笔2 小时前
【Rust中所有符号的作用及使用场景详解】
java·算法·rust
亚马逊云开发者2 小时前
别再烧 Token 了!我用这 5 个配置把 OpenClaw 费用砍了一半
java
yeshihouhou2 小时前
redisson实现延迟队列
java·前端·数据库
DO_Community2 小时前
DigitalOcean 基于 NVIDIA GPU 如何为 Workato 降低 67% AI 推理成本
人工智能·llm·aigc
猿饵块2 小时前
python--sys
开发语言·python