先从最基本的开始堆,不用很纠结方法,思路为主。
通过"渐进式披露(Progressive Disclosure)"的架构,将庞大的系统提示词拆解为按需加载的模块。
结合 Anthropic 的 Agent Skills 开放标准及 OpenAI 的工程实践。
-
知识解耦(Decouple Knowledge):将巨型系统提示词(System Prompt)拆分为独立的技能包(Skill Pack),避免启动时加载所有上下文。
-
能力封装(Encapsulate Capability):将"指令 + 工具 + 示例"打包成一个可版本化、可复用的单元。
-
按需加载(On-demand Loading):模型先看技能"目录"(元数据),只有判断需要时,才将完整的 Skill.md 读入上下文。
P0 级:基础生存(正确调用skills)
元数据层约束(Metadata Constraint)
Anthropic Agent Skills 标准("skill.md" 的 YAML frontmatter)。
》》 在 "description" 字段中明确写入 "When to use" 和 "When NOT to use"。
P1 级:性能优化(降低token消耗,加速流程)
渐进式披露(Progressive Disclosure)
OpenAI Codex / Cursor 的 ".agents/skills/" 目录规范。
》》 分层加载:模型先看到技能列表(低 Token 成本),触发时才读取完整的 "SKILL.md"(高 Token 成本)。
》》 代码外置:将复杂的逻辑(如 PDF 解析脚本)放在技能目录的 "scripts/" 下,模型通过 "bash" 调用,不将代码作为文本塞进上下文。
P2 级:进阶风控(确定性)
技能即代码(Skill as Code)
OpenAI Shell 工具 + 技能内嵌脚本。
》》 确定性执行:在技能包中捆绑 Python 脚本(如"extract_pdf_form.py")。模型不"理解"PDF 内容,而是调用脚本处理,确保结果一致。
》》 留痕:技能调用被视为一个"事务",配合 LangGraph 的 Checkpointer,记录"技能名 + 输入参数 + 输出哈希"。