每天拆解一个AI知识: Context Engineering

每天拆解一个AI知识: Context Engineering

本文较长,建议点赞收藏,以免遗失。更多AI大模型开发 学习视频/籽料/面试题 都在这>>Github<< >>gitee<<

在 AI 技术飞速迭代的当下,"Context Engineering(上下文工程)" 强势闯入大众视野,在 AI 圈掀起讨论热潮,连领域权威 Karpathy 都为其发声,足见其在 AI 发展进程中的关键地位。这一概念的诞生,是 AI Agent(人工智能智能体)进化到特定阶段的标志性产物,推动着 AI 从 "对话应答者" 向 "任务执行者" 跨越。

一、什么是上下文工程?

(一)从对话交互到任务执行的跨越

在大语言模型(LLM)发展初期,应用逻辑聚焦于 "对话交互" 模式:用户精心编写提示词(Prompt),模型基于此静态信息生成回答,构成了我们熟知的 "Prompt Engineering(提示词工程)"。彼时,AI 的价值更多体现在内容生成与问题解答,能力边界受限于静态指令。

但随着 AI Agent 的崛起,AI 的能力边界被极大拓宽 ------ 它不再满足于被动回应,而是能够主动承接完整任务,自主完成 "思考 - 规划 - 决策 - 执行" 全流程。比如,在智能办公场景中,AI Agent 可接收 "整理月度销售报告并生成分析结论" 的任务,自主规划步骤:从调取销售数据库、梳理数据逻辑,到调用图表生成工具可视化数据,再到基于分析框架输出结论,全程无需人工逐环节干预。

(二)上下文工程的核心逻辑

此时,LLM 作为 AI Agent 的 "智能中枢",仅依靠静态提示词已无法支撑复杂任务。它需要动态掌握多元信息:环境实时状态(如工具调用后的反馈)、工具调用规则(不同工具的参数要求、适用场景 )、历史交互数据(过往任务的执行经验、用户习惯 )、任务核心目标(明确任务要达成的具体结果 )等,这些信息共同构成模型决策的 "上下文"。一旦关键上下文缺失,模型就可能出现 "决策偏差",像在执行数据分析任务时,若遗漏历史数据中的异常值处理规则,就会导致结论错误,最终任务失败。

简言之,在 AI Agent 执行任务的全周期中,通过系统设计,在恰当的时机、以适配的格式,为 LLM 精准供给完成任务所需的全部上下文信息,保障任务高效推进,这就是 Context Engineering(上下文工程) ,它是 AI Agent 从 "能对话" 到 "能做事" 的核心支撑。

(三)上下文涵盖的多元信息

一个 AI Agent 的上下文,涵盖的内容丰富多元:

  • 指令 / 系统提示词:定义 LLM 的角色、规则与输出格式,或提供示例参考,规范模型行为边界。比如在客服场景,指令会限定模型以 "亲切、专业" 的客服角色回应,遵循问题分类规则,输出简洁清晰的解答。

  • 用户提示词:用户发起的具体任务或问题,是任务执行的初始指令。例如用户下达 "为新产品策划线上推广方案",这就是启动任务的关键提示。

  • 短时记忆:记录当前对话的交互历史,包含用户提问与模型回答,辅助模型理解对话脉络。在持续沟通的任务中,短时记忆能让模型记住 "用户已否定方案 A,偏好方案 B 风格" 这类信息,优化后续输出。

  • 长时记忆:沉淀跨对话积累的知识,如用户偏好、项目经验等,为长期任务提供决策依据。若用户长期合作,长时记忆可存储 "用户注重成本控制、倾向极简设计" 等偏好,后续任务直接调用。

  • 外部信息(RAG) :通过检索获取的实时内容,涵盖文档、数据库或互联网信息,补充模型知识盲区。比如执行行业报告任务时,可检索最新的市场调研数据、政策文件,让报告更具时效性。

  • 可用工具:罗列 LLM 可调用的工具与函数,拓展任务执行能力。像数据分析任务可调用 Python 数据处理库,文案创作任务可调用语法检测工具 。

  • 结构化输出:约定模型输出格式(如 JSON),确保任务结果符合下游需求。例如电商场景中,要求模型输出包含 "商品 ID、推荐理由、价格区间" 的 JSON 格式推荐列表,便于系统对接。

这些信息分散存储于不同介质,需通过动态策略获取,共同为模型决策提供支撑。

二、与提示词工程的本质区别

对比 "Prompt Engineering(提示词工程)",二者存在清晰分野:

(一)核心逻辑差异

  • 提示词工程:聚焦静态模板设计,通过优化提示词的指令描述、格式引导,让模型基于固定模板生成回答,核心是 "单次交互的指令优化"。比如设计 "写一篇产品宣传文案,突出 XX 功能优势" 的模板,模型按模板框架输出内容。
  • 上下文工程:属于系统级工程,需 AI Agent 在调用 LLM 前,动态构建任务所需的完整上下文。除解决 "何时准备、以何种格式准备" 等基础问题,还需攻克一系列复杂工程决策。

(二)复杂决策环节

在上下文工程实践中,这些决策直接影响任务执行效率与结果:

  • 记忆分层策略:如何区分信息优先级,规划 "短时记忆" 与 "长时记忆" 的存储策略?比如高频变动的对话内容存短时记忆,稳定的用户偏好存长时记忆 。

  • 信息检索策略:调用历史信息时,采用何种检索策略,高效提取任务相关内容?可基于关键词匹配、语义相似度检索,快速定位所需信息。

  • 上下文压缩策略:如何裁剪、压缩冗余上下文,规避模型 "上下文窗口(Context Window)" 限制?可通过摘要生成、冗余信息过滤,保留核心内容。

  • 工具信息适配:工具调用信息以何种数据结构呈现,才能让模型精准理解与执行?需结合工具特性,设计清晰的参数说明、调用流程描述。

  • 外部信息获取:若关键信息缺失,如何从外部知识库或 API 实时获取并整合?要搭建信息检索、清洗、接入的完整流程,保障信息质量。

可见,上下文工程的复杂度与系统性,远高于提示词工程,是 AI Agent 技术落地的核心研究方向。

三、如何实现上下文工程?

当前,上下文工程的实践尚未形成统一标准,不同 AI Agent 框架基于自身逻辑,发展出差异化的上下文管理机制。

以 LangChain 发布的 LangGraph 相关策略为例,其总结了四种典型的上下文管理与构建方法,为行业提供了实践参考:

(一)Write Context(写入上下文)

将任务执行中产生的关键信息,写入长时记忆、草稿板或状态对象,存储于上下文窗口外,为后续任务预留调用依据。比如在多步骤任务中,把 "第一步完成的用户需求分析结论" 写入长时记忆,第二步执行方案设计时,模型可直接调取参考,避免重复分析。

(二)Select Context(选择上下文)

从草稿板、状态对象、长时记忆库或知识库中,动态检索与当前任务相关的信息,填充至上下文窗口,为模型决策提供实时支撑。例如执行 "优化产品推广方案" 任务时,从历史知识库中检索 "过往同类产品推广的成功案例、用户反馈数据",辅助模型快速优化方案。

(三)Compress Context(压缩上下文)

对累积的上下文信息进行总结、修剪,仅保留与当前任务相关的 token,避免超出模型上下文窗口限制,保障模型高效运行。当任务执行到后期,上下文信息过载时,可通过生成摘要、过滤冗余对话,压缩出核心内容,如把多轮沟通的需求讨论,压缩为 "用户核心需求:功能 A 优化、注重成本" ,减轻模型处理压力。

(四)Isolate Context(隔离上下文)

将复杂任务的上下文,分区存储于状态对象、沙箱环境或多个子智能体中,规避信息干扰,保持任务结构清晰,提升复杂任务的执行精度。比如处理 "同时策划产品推广与品牌建设任务" 时,将推广任务上下文存于子智能体 A,品牌建设存于子智能体 B,各自独立运行又协同配合,避免信息混淆。

从对话交互的 "提示词工程",到自主执行任务的 "上下文工程",AI 技术正实现从 "单点能力" 到 "系统能力" 的跨越。Context Engineering 作为 AI Agent 的核心支撑,其发展与落地,将持续推动 AI 从 "理论可行" 走向 "场景可用",重塑各行业的智能化应用形态。无论是智能办公中自动推进项目流程,还是智能客服实现个性化、全周期服务,亦或是智能营销精准策划复杂 campaign ,上下文工程都在默默构建 AI 高效执行任务的 "信息基石" ,值得技术从业者与行业关注者持续深耕、探索,解锁更多 AI 应用新可能。

相关推荐
funfan051715 分钟前
GPT-5博士级AI使用教程及国内平替方案
人工智能·gpt
萤丰信息33 分钟前
技术赋能安全:智慧工地构建城市建设新防线
java·大数据·开发语言·人工智能·智慧城市·智慧工地
AI视觉网奇1 小时前
音频分类模型笔记
人工智能·python·深度学习
Dante但丁1 小时前
手扒Github项目文档级知识图谱构建框架RAKG(保姆级)Day4
人工智能
用户5191495848451 小时前
使用JavaScript与CSS创建"移动高亮"导航栏
人工智能·aigc
Java中文社群1 小时前
淘宝首位程序员离职,竟投身AI新公司做这事!
人工智能·后端·程序员
失散131 小时前
自然语言处理——02 文本预处理(上)
人工智能·自然语言处理
Listennnn2 小时前
nuScence数据集
人工智能
duration~2 小时前
SpringAI集成MCP
人工智能·后端·spring·ai
用户5191495848452 小时前
Linux内核UAF漏洞利用实战:Holstein v3挑战解析
人工智能·aigc