每天拆解一个AI知识: Context Engineering
本文较长,建议点赞收藏,以免遗失。更多AI大模型开发 学习视频/籽料/面试题 都在这>>Github<< >>gitee<<
在 AI 技术飞速迭代的当下,"Context Engineering(上下文工程)" 强势闯入大众视野,在 AI 圈掀起讨论热潮,连领域权威 Karpathy 都为其发声,足见其在 AI 发展进程中的关键地位。这一概念的诞生,是 AI Agent(人工智能智能体)进化到特定阶段的标志性产物,推动着 AI 从 "对话应答者" 向 "任务执行者" 跨越。
一、什么是上下文工程?
(一)从对话交互到任务执行的跨越
在大语言模型(LLM)发展初期,应用逻辑聚焦于 "对话交互" 模式:用户精心编写提示词(Prompt),模型基于此静态信息生成回答,构成了我们熟知的 "Prompt Engineering(提示词工程)"。彼时,AI 的价值更多体现在内容生成与问题解答,能力边界受限于静态指令。
但随着 AI Agent 的崛起,AI 的能力边界被极大拓宽 ------ 它不再满足于被动回应,而是能够主动承接完整任务,自主完成 "思考 - 规划 - 决策 - 执行" 全流程。比如,在智能办公场景中,AI Agent 可接收 "整理月度销售报告并生成分析结论" 的任务,自主规划步骤:从调取销售数据库、梳理数据逻辑,到调用图表生成工具可视化数据,再到基于分析框架输出结论,全程无需人工逐环节干预。
(二)上下文工程的核心逻辑
此时,LLM 作为 AI Agent 的 "智能中枢",仅依靠静态提示词已无法支撑复杂任务。它需要动态掌握多元信息:环境实时状态(如工具调用后的反馈)、工具调用规则(不同工具的参数要求、适用场景 )、历史交互数据(过往任务的执行经验、用户习惯 )、任务核心目标(明确任务要达成的具体结果 )等,这些信息共同构成模型决策的 "上下文"。一旦关键上下文缺失,模型就可能出现 "决策偏差",像在执行数据分析任务时,若遗漏历史数据中的异常值处理规则,就会导致结论错误,最终任务失败。
简言之,在 AI Agent 执行任务的全周期中,通过系统设计,在恰当的时机、以适配的格式,为 LLM 精准供给完成任务所需的全部上下文信息,保障任务高效推进,这就是 Context Engineering(上下文工程) ,它是 AI Agent 从 "能对话" 到 "能做事" 的核心支撑。
(三)上下文涵盖的多元信息
一个 AI Agent 的上下文,涵盖的内容丰富多元:
-
指令 / 系统提示词:定义 LLM 的角色、规则与输出格式,或提供示例参考,规范模型行为边界。比如在客服场景,指令会限定模型以 "亲切、专业" 的客服角色回应,遵循问题分类规则,输出简洁清晰的解答。
-
用户提示词:用户发起的具体任务或问题,是任务执行的初始指令。例如用户下达 "为新产品策划线上推广方案",这就是启动任务的关键提示。
-
短时记忆:记录当前对话的交互历史,包含用户提问与模型回答,辅助模型理解对话脉络。在持续沟通的任务中,短时记忆能让模型记住 "用户已否定方案 A,偏好方案 B 风格" 这类信息,优化后续输出。
-
长时记忆:沉淀跨对话积累的知识,如用户偏好、项目经验等,为长期任务提供决策依据。若用户长期合作,长时记忆可存储 "用户注重成本控制、倾向极简设计" 等偏好,后续任务直接调用。
-
外部信息(RAG) :通过检索获取的实时内容,涵盖文档、数据库或互联网信息,补充模型知识盲区。比如执行行业报告任务时,可检索最新的市场调研数据、政策文件,让报告更具时效性。
-
可用工具:罗列 LLM 可调用的工具与函数,拓展任务执行能力。像数据分析任务可调用 Python 数据处理库,文案创作任务可调用语法检测工具 。
-
结构化输出:约定模型输出格式(如 JSON),确保任务结果符合下游需求。例如电商场景中,要求模型输出包含 "商品 ID、推荐理由、价格区间" 的 JSON 格式推荐列表,便于系统对接。
这些信息分散存储于不同介质,需通过动态策略获取,共同为模型决策提供支撑。
二、与提示词工程的本质区别
对比 "Prompt Engineering(提示词工程)",二者存在清晰分野:
(一)核心逻辑差异
- 提示词工程:聚焦静态模板设计,通过优化提示词的指令描述、格式引导,让模型基于固定模板生成回答,核心是 "单次交互的指令优化"。比如设计 "写一篇产品宣传文案,突出 XX 功能优势" 的模板,模型按模板框架输出内容。
- 上下文工程:属于系统级工程,需 AI Agent 在调用 LLM 前,动态构建任务所需的完整上下文。除解决 "何时准备、以何种格式准备" 等基础问题,还需攻克一系列复杂工程决策。
(二)复杂决策环节
在上下文工程实践中,这些决策直接影响任务执行效率与结果:
-
记忆分层策略:如何区分信息优先级,规划 "短时记忆" 与 "长时记忆" 的存储策略?比如高频变动的对话内容存短时记忆,稳定的用户偏好存长时记忆 。
-
信息检索策略:调用历史信息时,采用何种检索策略,高效提取任务相关内容?可基于关键词匹配、语义相似度检索,快速定位所需信息。
-
上下文压缩策略:如何裁剪、压缩冗余上下文,规避模型 "上下文窗口(Context Window)" 限制?可通过摘要生成、冗余信息过滤,保留核心内容。
-
工具信息适配:工具调用信息以何种数据结构呈现,才能让模型精准理解与执行?需结合工具特性,设计清晰的参数说明、调用流程描述。
-
外部信息获取:若关键信息缺失,如何从外部知识库或 API 实时获取并整合?要搭建信息检索、清洗、接入的完整流程,保障信息质量。
可见,上下文工程的复杂度与系统性,远高于提示词工程,是 AI Agent 技术落地的核心研究方向。
三、如何实现上下文工程?
当前,上下文工程的实践尚未形成统一标准,不同 AI Agent 框架基于自身逻辑,发展出差异化的上下文管理机制。
以 LangChain 发布的 LangGraph 相关策略为例,其总结了四种典型的上下文管理与构建方法,为行业提供了实践参考:
(一)Write Context(写入上下文)
将任务执行中产生的关键信息,写入长时记忆、草稿板或状态对象,存储于上下文窗口外,为后续任务预留调用依据。比如在多步骤任务中,把 "第一步完成的用户需求分析结论" 写入长时记忆,第二步执行方案设计时,模型可直接调取参考,避免重复分析。
(二)Select Context(选择上下文)
从草稿板、状态对象、长时记忆库或知识库中,动态检索与当前任务相关的信息,填充至上下文窗口,为模型决策提供实时支撑。例如执行 "优化产品推广方案" 任务时,从历史知识库中检索 "过往同类产品推广的成功案例、用户反馈数据",辅助模型快速优化方案。
(三)Compress Context(压缩上下文)
对累积的上下文信息进行总结、修剪,仅保留与当前任务相关的 token,避免超出模型上下文窗口限制,保障模型高效运行。当任务执行到后期,上下文信息过载时,可通过生成摘要、过滤冗余对话,压缩出核心内容,如把多轮沟通的需求讨论,压缩为 "用户核心需求:功能 A 优化、注重成本" ,减轻模型处理压力。
(四)Isolate Context(隔离上下文)
将复杂任务的上下文,分区存储于状态对象、沙箱环境或多个子智能体中,规避信息干扰,保持任务结构清晰,提升复杂任务的执行精度。比如处理 "同时策划产品推广与品牌建设任务" 时,将推广任务上下文存于子智能体 A,品牌建设存于子智能体 B,各自独立运行又协同配合,避免信息混淆。
从对话交互的 "提示词工程",到自主执行任务的 "上下文工程",AI 技术正实现从 "单点能力" 到 "系统能力" 的跨越。Context Engineering 作为 AI Agent 的核心支撑,其发展与落地,将持续推动 AI 从 "理论可行" 走向 "场景可用",重塑各行业的智能化应用形态。无论是智能办公中自动推进项目流程,还是智能客服实现个性化、全周期服务,亦或是智能营销精准策划复杂 campaign ,上下文工程都在默默构建 AI 高效执行任务的 "信息基石" ,值得技术从业者与行业关注者持续深耕、探索,解锁更多 AI 应用新可能。