
大家好,我是Tony Bai。
欢迎来到微专栏 《AI 智能体时代的软件工程》的第七讲。
在上一大模块中,我们学习了如何顺应 AI 智能体"不知疲倦"和"知识广博"的非人类特性,设计了如"一次性赌注"、"魔鬼代言人"等协作模式。那些模式的核心目的在于"压榨生产力与获取洞见"。
但跑得快不等于跑得稳。如果一辆法拉利没有极其可靠的刹车和转向系统,速度越快,车毁人亡的概率就越高。
从本讲开始,我们将进入本专栏最核心、也是企业级落地最关键的模块:可靠性保障工程(Assurance Engineering)。我们要学习如何把 AI 队友那不可预测的"随机性",关进坚固的工程笼子里。
我们今天先来解决所有 AI 研发流水线的第一道关卡,也是目前绝大多数开发者每天都在犯错的地方------我们给 AI 派发任务的方式从根本上就是错的。
在这一讲,我们将彻底抛弃业内广为流传的"提示词工程(Prompt Engineering)"思维,转而建立面向智能体的新一代规范:任务工程(Mission Engineering)与"任务简报(Mission Brief)"。
为什么我们要彻底抛弃"提示词(Prompt)"思维?
在过去的一两年里,市面上充斥着大量教你"如何写出完美 Prompt"的教程。比如:"你现在是一个资深的 Go 语言架构师,请深吸一口气,一步一步地思考,帮我写一个......"
这种做法在偶尔使用 ChatGPT 写个小脚本时很有效,但在严肃的智能体软件工程中,这种思维是极其危险和脆弱的。
"提示词"思维的本质是"施法"与"祈祷"。
你像一个试图讨好神明的法师,通过微调几个形容词、加几个感叹号,祈祷底层的大语言模型能恰好命中你想要的那个概率分布。一旦 AI 写错了,你就继续在对话框里追加提示词:"不对,你忘记了 Redis 故障的情况,重写!"
这种对话式的、补丁摞补丁的指令,最终会导致我们前面学过的四大悖论集体大爆发:
-
导致"积极性悖论":提示词通常只描述了"我想干什么(What)",但没有定义"不能干什么(Non-goals)"。AI 为了讨好你,会积极地过度设计,把你没要求的功能也顺手实现了。
-
导致"上下文悖论":随着你在聊天框里不断补充规则,上下文变得极度冗长且相互矛盾。AI 开始随机丢弃指令。
-
导致"隧道视野":你在提示词里让 AI 关注某一个具体的 Bug 修复,它就真的只看这一行代码,把外围的系统级契约破坏殆尽。
在工程的世界里,我们不相信祈祷,我们只相信契约和强制约束。
我们需要从"写提示词让 AI 帮我写代码"的保姆式微操,升级为"提供严谨的任务简报,让 AI 在约束范围内自行探索"的自治契约。