在 AI 应用开发的浪潮中,我们对大语言模型(LLM)的"驾驭"方式正在快速演进。从最初的 Prompt Engineering(提示工程),到 Context Engineering(上下文工程),再到如今越来越受关注的 Harness Engineering(驾驭工程 / 代理运行工程),这三个概念并非互相替代,而是形成了一条清晰的抽象层级递进线。
它们代表着我们对 AI 系统控制力的逐步外扩:
第一层:管"怎么说"(指令层面)
第二层:管"给什么信息"(信息环境层面)
第三层:管"让系统怎样稳定执行"(整体运行环境层面)
这一演进在 OpenAI 的官方文档和文章中体现得淋漓尽致------从早期的 Prompt Engineering 指南,到 2026 年发布的 Harness Engineering 文章,我们可以看到 AI 工程实践的成熟路径。
- Prompt Engineering:把话说清楚
Prompt Engineering 是最基础、也最成熟的层面。它专注于为模型编写有效指令,让输出更稳定、更符合预期。
OpenAI 官方将它定义为:通过清晰指令、角色扮演、示例、约束条件和输出格式设计,来提升模型结果的一套方法。
官方链接与概要:
OpenAI Prompt Engineering Guide:https://platform.openai.com/docs/guides/prompt-engineering
概要:详细介绍提示工程的核心概念、策略(如清晰指令、few-shot 示例、结构化输出)和最佳实践,帮助开发者通过有效指令让模型稳定生成符合要求的内容。
Best practices for prompt engineering with the OpenAI API:https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-the-openai-api
概要:提供实用技巧,包括使用最新模型、将指令置于开头、具体性、迭代优化等,是 OpenAI 官方推荐的提示工程入门与进阶指南。
核心关注点
任务说明是否足够清楚?
输出格式是否明确(例如 JSON、表格、步骤列表)?
是否提供了足够的 few-shot 示例?
边界条件和约束是否写明?
典型手段
常见技巧包括:明确任务目标和角色、使用 few-shot 示例、要求结构化输出、链式思考(Chain of Thought)、复杂任务拆解以及反复迭代提示词。
局限性
当任务从单次问答演变为长流程、多工具调用、带记忆的 Agent 系统时,单纯优化一段提示词就显得力不够用了。问题不再只是"说得好不好",而变成了"模型这一刻到底看到了什么信息"。这就自然引出了下一个层面。
- Context Engineering:把信息喂对
Context Engineering 将关注点从"如何写指令"扩展到"如何为模型构建恰当的信息环境"。
它强调:在模型每一步推理之前,系统性地设计和编排上下文窗口中的内容,包括指令(instructions)、记忆(memory)、工具(tools)和检索信息(retrieved information)等。
与 Prompt Engineering 的区别
Prompt Engineering 更像"写好问题"
Context Engineering 更像"设计模型看到的世界"
Prompt 本身只是上下文的一部分,而 Context Engineering 还需要处理历史对话保留、知识检索、工具结果回填、长上下文压缩以及多轮状态一致性等。
核心目标
让模型在每一步都"看到最相关的信息,而不是看到最多的信息"。上下文是稀缺资源,塞入过多无关内容反而会稀释关键约束。
官方/主要来源与概要
context-engineering.net:https://context-engineering.net/
概要:专注于 AI 系统设计与优化的方法论站点,提供 RAG、提示优化和生产级 AI 应用的上下文工程实践指南。
contextengineer.org:https://contextengineer.org/
概要:学习与框架型站点,介绍上下文工程的三大支柱(指令、知识、工具反馈),帮助开发者掌握超越提示工程的信息管理技能。
Andrej Karpathy 相关材料(如上下文工程讨论):Karpathy 强调"context engineering 是填充上下文窗口以放入恰当信息的精妙艺术与科学",被业界广泛引用作为重要推动来源。
适用场景
特别适合 RAG 系统、工作流 Agent、带长期记忆的智能助手、代码代理以及企业知识问答等复杂应用。
- Harness Engineering:把整个运行系统搭对
Harness Engineering 是 2026 年明显升温的前沿概念,OpenAI 在其官方文章中进行了深入阐述。
它不再局限于模型的输入,而是聚焦于"让 Agent 在真实环境中可靠执行"的整体系统设计。工程师的主要工作从写代码转向设计环境、规定意图、建立反馈回路。
比 Context Engineering 多出的维度
包括工具链与执行环境、沙箱权限、评测验证、自动重试与故障恢复、审批与人工接管、日志观测以及与真实系统的联动。
OpenAI 的案例展示了 Agent 如何启动应用、复现 Bug、验证修复并发起 PR,追求生产级的可靠性。
官方链接与概要
Harness engineering: leveraging Codex in an agent-first world:https://openai.com/index/harness-engineering/
概要:OpenAI 官方文章,讲述在"agent-first world"中通过 Harness Engineering 构建可靠 AI 代理系统。重点是设计环境、反馈回路和约束,让 Codex 等代理在生产环境中自主完成复杂任务(如构建百万行代码产品),强调人类通过提示引导、代理负责执行的核心范式转变。
一句话总结三者
Prompt Engineering:把话说清楚
Context Engineering:把信息喂对
Harness Engineering:把整个运行系统搭对
三者关系:三层抽象递进
我们可以把它们清晰地看成三层架构:
第 1 层:Prompt ------ 你对模型怎么下指令
第 2 层:Context ------ 模型在当前时刻能看到哪些说明、记忆、检索结果、工具反馈
第 3 层:Harness ------ 模型运行在哪个可控环境中,怎么执行、怎么验证、怎么纠错、怎么与真实世界交互
三者层层包裹,相互支撑。
一个最实用的理解框架:Coding Agent 示例
假设你要构建一个"自动读文档、改代码、跑测试、提 PR"的 Coding Agent:
Prompt Engineering:写一句"请修复这个 bug,并输出 patch"
Context Engineering:额外提供仓库结构、相关日志、历史讨论、检索到的设计文档、最近失败的测试用例
Harness Engineering:搭建沙箱环境、浏览器自动化、测试命令执行、权限边界、回滚机制、评测集、PR 模板以及人工审批流程
只有三层齐备,Agent 才能从"偶尔能用"进化到"生产可信赖"。
学习建议
如果你想系统掌握,推荐按以下顺序学习:
先学 Prompt Engineering:最快见效,理解模型交互的基础。直接阅读上述 OpenAI 官方指南。
再学 Context Engineering:当你开始做 RAG、多 Agent 或复杂工作流时,它会成为关键。参考相关站点和 Karpathy 观点。
最后深入 Harness Engineering:当你要把 Agent 推向生产环境时,这一层最有价值。必读 OpenAI 的 Harness Engineering 文章。
掌握了这条演进线,你就不再是单纯"调提示词"的人,而是真正能构建可靠 AI 系统的工程师。
欢迎讨论与与交流!